[发明专利]一种基于弱监督学习的图像目标检测方法在审
申请号: | 201910624287.8 | 申请日: | 2019-07-11 |
公开(公告)号: | CN110349148A | 公开(公告)日: | 2019-10-18 |
发明(设计)人: | 屈鸿;张云龙;杨昀欣;刘永胜;季江舟 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/46;G06K9/62;G06N3/04 |
代理公司: | 成都东唐智宏专利代理事务所(普通合伙) 51261 | 代理人: | 罗言刚 |
地址: | 611731 四川省成都市高新区(*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图像目标检测 卷积神经网络 标注信息 目标检测 实际图像 包围框 学习 机器视觉技术 连通区域分析 图像 多尺度特征 二值化图像 图像数据集 模型提取 模型训练 人工标注 监督 构建 标注 输出 分类 | ||
1.一种基于弱监督学习的图像目标检测方法,其特征在于,包括如下步骤:
步骤1:收集图像数据集,采用多示例学习方法训练构建的基于多尺度特征图的深度卷积神经网络模型;
步骤2:输入实际图像,通过深度卷积神经网络模型提取实际图像的类别热力图;
步骤3:采用二值化图像连通区域分析方法输出类别热力图中目标的包围框,得到目标检测结果。
2.根据权利要求1所述的一种基于弱监督学习的图像目标检测方法,其特征在于,所述步骤1包括如下步骤:
步骤1.1:收集整理图像数据,对图像尺寸做归一化处理,并对图像作多热编码标注;
步骤1.2:构建基于多尺度特征图的深度卷积神经网络模型,深度卷积神经网络模型的主干网络模型采用经公开数据集预训练的模型;
步骤1.3:采用多示例学习方法训练构建的深度卷积神经网络模型,其中标注数据使用步骤1.1中的多热编码标注。
3.根据权利要求2所述的一种基于弱监督学习的图像目标检测方法,其特征在于,所述步骤1.3包括如下步骤:
步骤1.3.1:通过多热编码标注和深度卷积神经网络模型输出预测值作为多类别概率,以计算交叉熵损失函数;使用高光损失函数对深度卷积神经网络模型中的输出特征图进行约束,迫使卷积网络模型中的输出特征图上的响应值往确定性高处靠拢,并将这交叉熵损失函数和高光损失函数之和作为模型的总体损失函数;
步骤1.3.2:在训练时对总损失函数使用优化器进行梯度下降优化,训练深度卷积神经网络模型直至收敛。
4.根据权利要求2所述的一种基于弱监督学习的图像目标检测方法,其特征在于:所述步骤2包括如下步骤:
步骤2.1:对于输入的实际图像进行尺度归一化处理;
步骤2.2:将经归一化处理的实际图像经过深度卷积神经网络模型处理得到各特征尺度的类别热力图;
步骤2.3:将各特征尺度的类别热力图融合为一幅特征融合后的类别热力图。
5.根据权利要求4所述的一种基于弱监督学习的图像目标检测方法,其特征在于,所述步骤2.2包括如下步骤:
步骤2.2.1:选取深度卷积神经网络模型的主干网络模型中的不同下采样阶段,对输入的实际图像通过特征提取网络提取多尺度特征;
步骤2.2.2:多尺度特征经卷积层转换后,进行全局多尺度池化,输出多类别的分类概率值。
6.根据权利要求4所述的一种基于弱监督学习的图像目标检测方法,其特征在于:所述步骤2.3包括如下步骤:
步骤2.3.1:将所有特征尺度对应的类别热力图采样至经归一化处理后的实际图像的尺寸;
步骤2.3.2:在每个位置对多个特征尺度对应的类别热力图的响应值求均值,得到特征融合后的类别热力图。
7.根据权利要求5所述的一种基于弱监督学习的图像目标检测方法,其特征在于:所述步骤3包括如下步骤:
步骤3.1:以深度卷积神经网络模型输出的分类结果作为目标的分类依据,选择类别热力图中存在类对应的特征图;其中,输出分类概率值大于等于0.5的认为有该类存在,否则认为该类不存在;
步骤3.2:计算每个类对应的特征图中的响应值均值,将响应值均值作为二值化阈值,并将每个类对应的特征图二值化;
步骤3.3:使用连通区域分析方法,采取8-领域模式,对二值化后的特征图进行连通区域分析,标注每个区域作为对应类的目标区域;
步骤3.4:将每个类的目标区域的最小外接矩形作为对应类目标的包围框;
步骤3.5:将类别热力图中所有存在类别对应的包围框输出,完成图像目标检测。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910624287.8/1.html,转载请声明来源钻瓜专利网。