[发明专利]一种基于类别修正的弱监督目标定位方法在审
申请号: | 202310336796.7 | 申请日: | 2023-03-28 |
公开(公告)号: | CN116342857A | 公开(公告)日: | 2023-06-27 |
发明(设计)人: | 瞿响宇;杜博;王增茂;罗伊文;陈尚法;何向阳 | 申请(专利权)人: | 武汉大学;长江勘测规划设计研究有限责任公司 |
主分类号: | G06V10/22 | 分类号: | G06V10/22;G06V10/40;G06V10/74;G06V10/764;G06V10/774;G06V10/82;G06N3/0895 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 王琪 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 类别 修正 监督 目标 定位 方法 | ||
1.一种基于类别修正的弱监督目标定位方法,其特征在于:包括训练阶段和测试阶段,其中训练阶段包括如下步骤:
步骤1,构建目标定位模型,所述目标定位模型包括主干网络,分类网络和定位网络,其中主干网络对输入图像进行特征提取,分类网络和定位网络是对偶的网络,对从主干网络提取的特征进行类别和掩码的预测;
步骤2,对输入图像I,生成和训练样本有分布相似性的合成图像Is以及前景掩码Ms,然后将合成图像Is输入目标定位模型中,得到定位网络预测的掩码
步骤3,图片级细定位阶段:增大图像层次中前景和背景之间的差异,让定位网络更精确的定位;包括以下子步骤:
步骤3.1,由步骤2训练好的具有粗略定位能力的定位网络得到真实图片Ir的前景掩码预测
步骤3.2,将前景掩码预测与真实图片Ir进行哈达玛积得到类别无关的前景注意力图像If,同时对前景掩码进行0-1转换为将真实图片Ir与进行哈达玛积得到类别无关的背景注意力图像Ib;
步骤3.3,分别将前景注意力图像If和背景注意力图像Ib送进分类网络进行预测,得到预测的概率特征以及
步骤4,特征级精细定位阶段:在图像级别的前景和背景差异得到放大之后,利用与步骤3中相同的方法增大特征层次前景和背景之间的差异,让定位网络进一步修正被错误定位的细节,输出最终的定位结果;
测试阶段的过程如下:
断开定位网络和分类网络的连接,通过对定位网络的前景掩码进行阈值筛选,得到最终的定位框:
其中表示测试样本通过定位网络预测得到的掩码,θ为筛选的阈值,Select函数选择大于阈值的部分并返回一个包含所有前景坐标的最小边界框作为最终确定的定位框Box。
2.如权利要求1所述的一种基于类别修正的弱监督目标定位方法,其特征在于:步骤1中主干网络采用U-Net网络结构,定位网络采用CNN卷积网络结构。
3.如权利要求1所述的一种基于类别修正的弱监督目标定位方法,其特征在于:步骤2中采用BigBiGAN的方法生成合成图像和掩码。
4.如权利要求1所述的一种基于类别修正的弱监督目标定位方法,其特征在于:步骤2中获得掩码的具体公式如下:
其中θB和θL分别代表主干网络和定位网络的参数。
5.如权利要求4所述的一种基于类别修正的弱监督目标定位方法,其特征在于:采用二分交叉熵函数对定位网络进行优化,损失函数如下:
其中m,n为掩码的宽度和高度,为前景掩码Ms中i行j列的元素,为预测掩码中i行j列的元素。
6.如权利要求1所述的一种基于类别修正的弱监督目标定位方法,其特征在于:步骤3.3中预测的概率特征以及的计算公式如下:
其中θB和θC分别代表主干网络和分类器的参数,对前景和背景注意力图像的损失函数具体如下:
其中是前景注意力图像的交叉熵函数,是背景注意力图像的熵的负数,K是数据集整体的类别数,在图片级细定位阶段整体的损失函数可以表示为:
其中α和β是平衡参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学;长江勘测规划设计研究有限责任公司,未经武汉大学;长江勘测规划设计研究有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310336796.7/1.html,转载请声明来源钻瓜专利网。