[发明专利]一种基于类别修正的弱监督目标定位方法在审
申请号: | 202310336796.7 | 申请日: | 2023-03-28 |
公开(公告)号: | CN116342857A | 公开(公告)日: | 2023-06-27 |
发明(设计)人: | 瞿响宇;杜博;王增茂;罗伊文;陈尚法;何向阳 | 申请(专利权)人: | 武汉大学;长江勘测规划设计研究有限责任公司 |
主分类号: | G06V10/22 | 分类号: | G06V10/22;G06V10/40;G06V10/74;G06V10/764;G06V10/774;G06V10/82;G06N3/0895 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 王琪 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 类别 修正 监督 目标 定位 方法 | ||
本发明属于计算机视觉领域,尤其涉及一种基于类别修正的弱监督目标定位方法。为了解决CAM技术的定位不准确的弊端,我们不再利用类别特征图进行定位,而采用由粗略到精细的流程。本发明的模型由主干网络、定位网络和分类网络组成,首先由定位网络利用无监督分割技术生成类别无关的分割图,从而确定目标物体的粗略位置。之后由分类网络再通过类别标签进行细粒度修正。此种基于类别修正的方法可以精准的定位物体,对于轮廓细节也可以进行很好的识别。
技术领域
本发明属于计算机视觉领域,涉及一种基于类别修正的弱监督目标定位方法。
背景技术
目标定位是计算机视觉领域一个基础性的感知任务,其目的在于定位图像中的目标物体的具体位置,并且判断目标物体所属类别。然而在实际应用中,为了让算法模型具有良好的泛化性能,往往需要耗费大规模的人工成本进行目标边界框甚至是像素级别的标注。由于标注成本的问题,弱监督目标定位任务往往通过依靠容易获取和标注的类别标签使得模型具有定位物体的能力。针对弱监督目标定位问题,国内外主流研究是基于CAM技术,通过图中和类别相关的注意力高亮区域来确定物体的位置。但此类方法通常只能定位出物体具有类别辨识度的部分,造成算法定位框往往小于目标物体的不准确问题。因此,如何获取精确的定位框成为弱监督目标定位领域亟需解决的问题。
发明内容
本发明主要是提供了一种基于类别修正的弱监督目标定位方法。为了解决CAM技术的定位不准确的弊端,我们不再利用类别特征图进行定位,而采用由粗略到精细的流程。本发明的算法由一个定位网络和一个分类网络组成。首先由定位网络利用无监督分割技术生成类别无关的分割图,从而确定目标物体的粗略位置。之后由分类网络通过类别标签进行细粒度修正。此种基于类别修正的方法可以精准的定位物体,对于轮廓细节也可以很好地识别。
本发明提供的技术方案中,由粗略到精细的目标定位方法包括训练阶段和测试阶段,其中训练阶段包括如下步骤:
步骤1,构建目标定位模型,所述目标定位模型包括主干网络,分类网络和定位网络,其中主干网络对输入图像进行特征提取,分类网络和定位网络是对偶的网络,对从主干网络提取的特征进行类别和掩码的预测;
步骤2,对输入图像I,生成和训练样本有分布相似性的合成图像Is以及前景掩码Ms,然后将合成图像Is输入目标定位模型中,得到定位网络预测的掩码
步骤3,图片级细定位阶段:增大图像层次中前景和背景之间的差异,让定位网络更精确的定位;包括以下子步骤:
步骤3.1,由步骤2训练好的具有粗略定位能力的定位网络得到真实图片Ir的前景掩码预测
步骤3.2,将前景掩码预测与真实图片Ir进行哈达玛积得到类别无关的前景注意力图像If,同时对前景掩码进行0-1转换为将真实图片Ir与进行哈达玛积得到类别无关的背景注意力图像If;
步骤3.3,分别将前景注意力图像If和背景注意力图像Ib送进分类网络进行预测,得到预测的概率特征以及
步骤4,特征级精细定位阶段:在图像级别的前景和背景差异得到放大之后,利用与步骤3中相同的方法增大特征层次前景和背景之间的差异,让定位网络进一步修正被错误定位的细节,输出最终的定位结果;
测试阶段的过程如下:
断开定位网络和分类网络的连接,通过对定位网络的前景掩码进行阈值筛选,得到最终的定位框:
其中表示测试样本通过定位网络预测得到的掩码,θ为筛选的阈值,Select函数选择大于阈值的部分并返回一个包含所有前景坐标的最小边界框作为最终确定的定位框Box。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学;长江勘测规划设计研究有限责任公司,未经武汉大学;长江勘测规划设计研究有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310336796.7/2.html,转载请声明来源钻瓜专利网。