[发明专利]一种目标检测方法、装置、设备及介质有效
申请号: | 202010392132.9 | 申请日: | 2020-05-11 |
公开(公告)号: | CN111597945B | 公开(公告)日: | 2023-08-18 |
发明(设计)人: | 顾敏;谢会斌;李聪廷 | 申请(专利权)人: | 济南博观智能科技有限公司 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06V10/764;G06V10/766;G06V10/40;G06V10/34;G06V10/778;G06N3/0464;G06N3/08 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 巴翠昆 |
地址: | 250001 山东省济南市高*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 目标 检测 方法 装置 设备 介质 | ||
本申请公开了一种目标检测方法、装置、设备及介质,包括:获取训练样本图像;利用所述训练样本图像对预先搭建的目标检测模型进行训练,得到训练后模型;其中,所述目标检测模型包括特征增强网络;所述特征增强网络用于在训练过程中对所述训练样本图像中的小目标区域图像进行特征增强;当获取到待检测图像,利用所述训练后模型输出对应的检测结果。这样,在训练过程中,针对小目标区域图像进行特征增强,得到训练后模型,然后利用这样的训练后模型进行目标检测,能够提升小目标检测的检出率和准确率。
技术领域
本申请涉及目标检测技术领域,特别涉及一种目标检测方法、装置、设备及介质。
背景技术
目标检测是计算机视觉领域中极具挑战性的课题,目前基于深度学习的目标检测算法可分为两大类:一类是以Faster-RCNN(即Region Convolutional Neural Networks)为代表的Two-stage方法,另一类是以YOLO和SSD(即Single Shot MultiBox Detector)为代表的One-stage方法。其中Two-stage方法是基于候选区域的卷积神经网络,该方法利用RPN(即Region ProposalNetwork,区域候选网络)层生成可能包含目标的候选框,然后将候选框映射到特征图上,利用分类器和回归器得到目标的类别信息和坐标信息,该类方法检测精度较高但是速度慢。One-stage方法则是基于回归的方法,直接对图像中目标的类别和位置信息进行预测,最后通过非极大值抑制得到最终检测结果,该类方法速度快但是精度相对Two-stage方法较低。
在实际应用中,对于图像中目标较小,密集,遮挡或者小目标和大目标同时存在情况下,现有的目标检测框架在训练过程中存在小目标特征信息丢失,导致小目标出现漏检或误检的问题。
发明内容
有鉴于此,本申请的目的在于提供一种目标检测方法、装置、设备及介质,能够提升小目标检测的检出率和准确率。其具体方案如下:
第一方面,本申请公开了一种目标检测方法,包括:
获取训练样本图像;
利用所述训练样本图像对预先搭建的目标检测模型进行训练,得到训练后模型;其中,所述目标检测模型包括特征增强网络;所述特征增强网络用于在训练过程中对所述训练样本图像中的小目标区域图像进行特征增强;
当获取到待检测图像,利用所述训练后模型输出对应的检测结果。
可选的,所述目标检测模型还包括特征提取网络、RPN网络、分类器和回归器;
相应的,所述利用所述训练样本图像对预先搭建的目标检测模型进行训练,得到训练后模型,包括:
将所述训练样本图像输入至所述特征提取网络,得到对应的样本特征图;
利用所述RPN网络生成所述样本特征图对应的候选区域;
将所述候选区域映射到所述样本特征图上;
从所述候选区域中筛选出小目标区域;
利用所述特征增强网络对小目标区域特征图进行特征增强,得到对应的小目标增强特征图;所述小目标区域特征图为所述小目标区域内的图像;
将所述小目标增强特征图和大目标区域特征图输入至分类器和回归器,得到每个候选区域特征图对应的预测结果;
其中,所述预测结果包括目标类别和目标位置;所述目标类别为所述分类器输出的结果;所述目标位置为所述回归器输出的结果;所述大目标区域特征图为大目标区域内的图像,所述大目标区域为所述候选区域中的大目标区域;
将所述预测结果映射到初始的所述训练样本图像,利用非极大抑制方法得到对应的训练检测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于济南博观智能科技有限公司,未经济南博观智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010392132.9/2.html,转载请声明来源钻瓜专利网。