[发明专利]基于深度全卷积网络的物体检测方法在审
申请号: | 201811047839.5 | 申请日: | 2018-09-04 |
公开(公告)号: | CN109284779A | 公开(公告)日: | 2019-01-29 |
发明(设计)人: | 芮挺;肖锋;王东;方虎生;周飞;芮思琦;刘好全;赵杰;杨成松;朱经纬;齐奕;张釜恺 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210014 江苏省南京*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 物体检测 网络模型 语义分割 样本集 测试集 关键点 图像 标注 网络 卷积神经网络 长方形物体 边缘相切 物体边界 物体定位 物体分类 物体位置 现场图像 训练样本 样本标注 语义标注 训练集 预测 样本 测试 | ||
本发明公开一种基于深度全卷积神经网络的物体检测方法,包括如下步骤:(10)样本集收集:将样本集图像分为训练集与测试集;(20)样本标注:对样本集图像中不同的物体用长方形物体框标注出物体位置,物体框必须与物体的边缘相切;完成图像中各物体的语义标注;(30)深度卷积网络模型获取:利用标注后的训练样本,对深度卷积网络进行多任务训练,同时完成语义分割和物体边界关键点预测,利用测试集样本对深度卷积网络进行测试,得到深度卷积网络模型;(40)物体检测:利用深度卷积网络模型,对现场图像进行物体检测。本发明基于深度卷积网络的物体检测方法,采用语义分割的思想,在完成语义分割的同时完成物体的边界关键点预测,同时实现了物体定位与物体分类。
技术领域
本发明属于计算机视觉技术的物体检测领域,特别是一种不同于当前普遍需要设置预设框实现物体检测的方法,在不需要预设框的条件下,通过训练一个多任务深度模型,同时完成图像中物体定位与物体分类任务。
背景技术
在计算机视觉领域中,物体检测是最重要的基础性工作之一,在实际应用中往往需要快速准确的实现物体尤其是通用物体检测方法。
现有的通用物体检测通常包括:物体定位过程和物体类别识别过程;其中的物体定位过程主要用于确定出图像中的物体的外接框,而物体类别识别过程主要用于确定出物体所属类别。
现有的物体定位的实现方式通常为:利用Selective Search(选择性搜索)算法或者RPN(Region Proposal Network,候选区域生成网络)等方式获得图像中可能是物体的多个候选框,再通过卷积神经网络对各候选框进行回归处理,以使候选框的位置更加精准。
现有的物体类别识别的实现方式通常为:针对物体定位过程所确定出的候选框,将CNN(Convolutional Neural Network,卷积神经网络)作为分类器,从而可以通过CNN确定出每一个候选框属于各预设类别的置信度,并将置信度最高的类别作为候选框所属类别。
发明内容
一种基于计算机视觉的通用物体检测方法FCDN(Fully Convolution DetectionNetwork,全卷积检测网络),包括如下步骤:
(10)样本集收集:将收集到的样本图像分为训练样本集与测试样本集两类;
(20)样本标注:对训练样本集和测试样本集图像中的物体分别作物体框标注和语义标注;
(30)深度卷积网络模型训练:利用标注好的样本对深度卷积网络进行训练,利用测试集样本对深度卷积网络进行测试,得到深度卷积网络模型;
(40)实时物体检测:利用深度卷积网络模型,进行现实中实时场景下的物体检测。
本发明与现有技术相比,由于采用语义分割的思想,在不需要预设框的条件下,同时完成图像中物体定位与物体分类任务,其显著优点为:
1、检测精度高:以语义分割结果为依据确定物体所属类别,语义分割是像素级别上的密集预测,被检测物体包含了大量的像素点,以像素点多的类别作为物体的类别,提高了物体类别的分类准确性;
2、检测速度快:检测模型完成检测任务时不需要分步进行,检测过程先后输出语义分割图和边界关键点预测图,中间并无存储操作,实现了完全端到端的模型结构。
结合这两方面的优点,本方法具有训练过程简洁、定位准确、实时性好的特点。
下面结合附图和具体实施方式对本发明作进一步的详细描述。
附图说明
图1为本发明的物体检测方法的主流程图。
图2为本发明实施例的网络模型框架图。
图3为本发明实施例样本外接框标注的示意图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811047839.5/2.html,转载请声明来源钻瓜专利网。