[发明专利]一种基于特征增强和IoU感知的目标检测方法有效
申请号: | 202110268913.1 | 申请日: | 2021-03-12 |
公开(公告)号: | CN112949635B | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 马波;安骄阳;刘龙耀 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/26;G06V10/82;G06N3/04 |
代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 王民盛 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 特征 增强 iou 感知 目标 检测 方法 | ||
本发明涉及一种基于特征增强和IoU感知的目标检测方法,属于计算机视觉目标检测领域。本方法利用RoI分类回归网络中卷积特征图的空间信息提高目标分类和定位的精度,利用注意力机制抑制RoI特征中的背景信息和增强RoI特征中的语义信息,利用IoU重打分策略增加类别得分和边界框置信度之间的相关性,保留高质量的边界框。本方法通过RoI分类回归分支网络,能有效利用特征图中的空间信息,有效提高了目标检测模型的分类和定位能力;通过边界框级别的语义分割分支网络和注意力机制,增强了RoI分类回归分支网络中的特征;通过IoU预测分支网络和使用预测IoU对类别得分进行重打分的策略,提高了目标的类别得分和边界框置信度之间的相关性,有效提高了边界框定位精度。
技术领域
本发明涉及一种基于特征增强和IoU(Intersection over Union)感知的目标检测方法,属于计算机视觉目标检测领域。
背景技术
目标检测作为计算机视觉领域中的一项基础任务,在航空航天、机器人导航、智能视频监控等领域应用广泛。近年来,随着基于深度学习的目标检测算法不断发展,逐渐形成了两种类型的目标检测框架:一阶段目标检测器、两阶段目标检测器。其中,一阶段检测器速度较快,但检测精度相对较低。两阶段检测器由于对目标进行了两次分类和边界框坐标回归,因此算法的检测精度通常更高,在工业界应用相对更加广泛。
在两阶段目标检测算法中,通常在第一阶段使用区域建议网络对图像中大量预设的锚点框进行二分类和边界框坐标回归,输出一组存在潜在目标的感兴趣区域(RoI)。在第二阶段,由RoI分类回归网络对感兴趣区域进行多分类并对边界框进行坐标回归,经过后处理后得到最终的检测结果。当区域建议网络预测的边界框坐标不准确时,RoI分类回归网络生成的RoI特征图中可能会存在部分背景信息,从而影响分类和定位的精度。
上述目标检测中的难点问题,使得当前两阶段目标检测技术存在以下缺陷:
1.现有算法通常考虑提高特征提取网络的特征表达能力,却忽视了针对目标检测中RoI分类和定位任务的特征增强方法。
2.现有算法在对RoI进行分类和回归时,缺少对空间信息的利用,没有充分利用特征图中固有的结构信息。
3.在检测算法的后处理过程中,现有算法通常使用非极大值抑制算法移除多余的目标框。然而,在非极大值抑制算法中,会使用目标框的类别得分表示定位的置信度,这可能导致类别得分较低但定位准确的边界框被抑制,进而影响检测算法的性能。
因此,如何克服上述现有目标检测算法存在的缺陷,实现高效、鲁棒的目标检测,是亟待解决的技术问题。
发明内容
本发明的目的是针对现有技术存在的不足,为有效解决两阶段目标检测技术面临的缺陷和问题,提出一种基于特征增强和IoU感知的目标检测方法。
本发明的创新点在于:首次利用RoI分类回归网络中卷积特征图的空间信息提高目标分类和定位的精度,利用注意力机制抑制RoI特征中的背景信息和增强RoI特征中的语义信息,利用IoU重打分策略增加类别得分和边界框置信度之间的相关性,保留高质量的边界框。
本发明采用以下技术方案实现:
一种基于特征增强和IoU感知的目标检测方法,包括以下步骤:
步骤1:获取目标检测数据集,并对图像进行预处理操作,构成训练数据集。
具体地,所述步骤1中,图像预处理操作具体为:
步骤1.1:将输入图像的短边缩放到600像素;
步骤1.2:使用图像随机水平翻转,进行数据增广。
步骤2:基于两阶段目标检测网络Faster R-CNN,搭建基于特征增强和IoU感知的目标检测网络。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110268913.1/2.html,转载请声明来源钻瓜专利网。