[发明专利]一种基于类别激活映射技术的空域安全态势评估方法有效
申请号: | 201911148779.0 | 申请日: | 2019-11-21 |
公开(公告)号: | CN110991502B | 公开(公告)日: | 2020-10-13 |
发明(设计)人: | 杜文博;曹先彬;郭通;张晋通;李宇萌 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 北京永创新实专利事务所 11121 | 代理人: | 冀学军 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 类别 激活 映射 技术 空域 安全 态势 评估 方法 | ||
本发明公开了一种基于类别激活映射技术的空域安全态势评估方法,属于飞行器技术领域。首先针对某无人机收集的历史机载图片构建数据集,并进行人工标签处理,将标签处理后的数据集分为训练集、验证集和测试集。然后构建残差网络结构作为感知网络主体模型,并输入训练集进行训练,利用验证集进行验证。将测试集输入训练好的感知网络主体模型中,当准确率达到90%以上结束。针对实际的飞行无人机,利用训练好的感知网络主体模型进行判断,对当前无人机的态势进行实时评估。根据每一时刻图像的实时评估可视化结果,指引无人机远离危险区域并向安全区域行进。本发明更为直观,采用更简单朴素的方式规定无人机远离危险区域。
技术领域
本发明属于飞行器技术领域,涉及一种基于类别激活映射技术的空域安全态势评估方法。
背景技术
目前与无人机自主导航相关的技术,按照功能划分为感知、决策和协同三部分。一些团队为了方便模型后续的封装与部署,更习惯于采用端到端的方式,即采用一个神经网络模型完成上述三个部分。这种端到端的模型一般会以无人机采集到的原始数据作为输入,然后以某一特定策略或动作作为输出。虽然能够简化操作的复杂度,但也带来了模型可解释性的问题。采用一个神经网络模型完成多项任务,会使得模型趋近于一个不可解释的“黑箱”。与此同时,一个模型解决多项任务意味着模型需要训练的参数更多,神经网络需要有更深的深度作为保障,这将对计算资源提出很大的要求,科研人员调整模型的超参数时也会遇到很大的难题。所以,目前仍有不少学者选择将感知,决策和协同这三个部分分步解决。
而在这三个部分之中,感知扮演着很重要的角色;如果感知的效果好,比较直观,后续做决策的难度也将大大降低,这意味着无人机在自主导航的过程中犯错甚至发生碰撞的概率也将降低。而态势评估又是感知这一部分内的重要环节,在收集到传感器所接收到的原始数据之后,对无人机的当前形势进行评估。精确而高效的评估能直接帮助无人机在后一步的决策环节做出快速而正确的动作。目前应用较多的是一种基于动态贝叶斯网络的态势评估方法。这种方法能够处理不确定性信息且能够进行实时评估,但是这种方法过于重视信息的传递和积累,导致无人机不能对一些突发状况做出较好的判断。于是,提出一种能弥补上述缺陷的无人机空域安全态势评估方法是很有必要的。
类别激活映射本意是用来解释卷积神经网络中卷积层所关注的图像特征。它可以将模型所关注的部分在原始图片上标出,将目标特征与背景分开来。这门技术对于解释神经网络的识别方式有着重大的意义。
发明内容
针对上述问题,本发明提供了一种基于类别激活映射技术的空域安全态势评估方法,通过类别激活映射完成对模型感知内容的可视化操作,进而完成了较为直观的无人机空域安全态势评估;大大降低无人机决策环节的难度。与此同时,该方法具有较好的可解释性以及非常直观的表现形式,方便科研人员理解与应用。
所述的基于类别激活映射技术的空域安全态势评估方法,具体步骤如下:
步骤一、针对某无人机,收集历史机载图片构建数据集;
步骤二、对收集到的机载图片进行人工标签处理,并将标签处理后的数据集分为训练集、验证集和测试集;
标签包括危险和安全;标签处理为:判断图片中障碍物与无人机之间的距离是否在阈值范围之内,如果是,将这张图片打上危险标签,标记为0。否则,将这张图片打上安全标签,标记为1。
阈值根据需要人为设定。
在每一个集合内,标签为0的危险图片和标签为1的安全图片比例为1:1。
步骤三、构建残差网络结构作为感知网络主体模型,并输入训练集进行训练,利用验证集进行验证。
残差网络结构包括:输入层,卷积层,池化层,残差卷积块1,残差卷积块2,残差卷积块3和输出层。
步骤四、将测试集输入训练好的感知网络主体模型中,当准确率达到90%以上结束。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911148779.0/2.html,转载请声明来源钻瓜专利网。