[发明专利]一种基于多任务学习的侧扫声呐图像分类方法有效
申请号: | 201911188526.6 | 申请日: | 2019-11-28 |
公开(公告)号: | CN110929794B | 公开(公告)日: | 2022-12-13 |
发明(设计)人: | 叶秀芬;杨鹏;刘文智;李海波;李传龙;李响;仰海波 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06V10/82;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 任务 学习 声呐 图像 分类 方法 | ||
本发明属于侧扫声呐图像识别技术领域,具体涉及一种基于多任务学习的侧扫声呐图像分类方法。本发明结合了多任务学习思想和卷积神经网络方法,使用卷积神经网络进行自动特征提取,相对于传统的人工设置的特征提取器,可以提取出人眼感受不到的那些重要特征,也能减小侧扫声呐图像噪声、图像边缘缺失、图像特征变形等因素对特征提取的影响。本发明利用多任务学习的思想,通过引入光学图像分类任务,可以丰富侧扫声呐图像的特征空间,避免了样本过少时特征提取不完备造成的过拟合的问题;通过本发明的方法,可以解决侧扫声呐图像样本少、特征提取困难时分类效果差的问题,具有一定的工程和研究价值。
技术领域
本发明属于侧扫声呐图像识别技术领域,具体涉及一种基于多任务学习的侧扫声呐图像分类方法。
背景技术
侧扫声呐系统相比于光学成像系统,可以克服水中恶劣条件的限制,远距离获取海底的图像。声呐图像在海底测绘、海底地质考察、深水作战、海底救援等领域都有着其他工具难以比拟的用途。但由于海洋的广阔,想要采集足够多的含有带搜寻目标的侧扫声呐图像非常困难。另一方面,由于光照、温度、沙石等都可能影响侧扫声呐图像的质量,这些因素都使得对侧扫声呐图像中的目标特征与真实的目标特征相差很远,因此仅仅利用有限的侧扫声呐图像很难取得很好的目标分类效果。
目前对侧扫声呐图像的分类主要是基于传统的机器学习方法,先设计特征提取器,然后选择合适的分类器进行分类。其中最重要的就是特征提取,它直接决定了分类准确性的上界。但是侧扫声呐的成像原理导致拼接好的侧扫声呐图像往往存在着噪点多、阴影明显、边缘不完整的问题。这导致传统的点、线特征提取方法如Frstner、Harris与HoughTransform等并不能够很好地提取出有区分度的特征。现今比较流行的基于卷积神经网络的深度学习方法,在图像识别、分类方面取得了非常好的效果,甚至超过了人类的水平,然而,这些成绩是建立在强大的运算能力、大量的样本、高效的算法基础上的。对于侧扫声呐图像而言,由于海洋的广阔,含有目标(如飞机、轮船等)的场景本就并不多,要能扫测到这些目标更是非常困难,这直接导致了侧扫声呐图像的样本非常少。在这种情况下,深度学习取得的效果甚至可能还比不上经过人们精心设计的传统方法。
综上,侧扫声呐在海洋探测中得到广泛应用,但由于侧扫声呐图像目标的样本量少、质量差等原因,目前的目标识别方法在侧扫声呐图像分类上取得效果并不好。
发明内容
本发明的目的在于提供解决在侧扫声呐图像样本数量少的情况下完成侧扫声呐图像分类网络的训练和分类的一种基于多任务学习的侧扫声呐图像分类方法。
本发明的目的通过如下技术方案来实现:包括以下步骤:
步骤1:根据现有的侧扫声呐数据,构建已分类的侧扫声呐图像数据集;
步骤2:根据侧扫声呐数据集中目标类别,构建与目标相关的光学图像辅助数据集;
步骤3:构建基于卷积神经网络的多任务学习模型;所述的基于卷积神经网络的多任务学习模型有两个输入,两个输入共享卷积池化层;每个输入拥有各自的分类层且单独计算自己的损失函数;所述的基于卷积神经网络的多任务学习模型总损失函数为两个输入的加权损失函数之和;
步骤4:将侧扫声呐图像数据集与光学图像辅助数据集中的数据作为基于卷积神经网络的多任务学习模型的输入,设定网络参数并训练基于卷积神经网络的多任务学习模型,得到侧扫声呐图像目标自动分类网络;
步骤5:使用验证集验证侧扫声呐图像目标自动分类网络性能,记录最高正确率;若最高正确率不满足要求,则调整基于卷积神经网络的多任务学习模型的两个输入的损失函数的权重比,返回步骤4重新训练;
步骤6:将侧扫声呐实时探测的图像输入侧扫声呐图像目标自动分类网络中,得到分类结果。
本发明还可以包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911188526.6/2.html,转载请声明来源钻瓜专利网。