[发明专利]基于深度全卷积网络的物体检测方法在审
申请号: | 201811047839.5 | 申请日: | 2018-09-04 |
公开(公告)号: | CN109284779A | 公开(公告)日: | 2019-01-29 |
发明(设计)人: | 芮挺;肖锋;王东;方虎生;周飞;芮思琦;刘好全;赵杰;杨成松;朱经纬;齐奕;张釜恺 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210014 江苏省南京*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 物体检测 网络模型 语义分割 样本集 测试集 关键点 图像 标注 网络 卷积神经网络 长方形物体 边缘相切 物体边界 物体定位 物体分类 物体位置 现场图像 训练样本 样本标注 语义标注 训练集 预测 样本 测试 | ||
1.一种基于深度全卷积神经网络的通用物体检测方法,其特征在于,包括如下步骤:
(10)样本集收集:将收集到的样本集图像分为训练样本集图像与测试样本集图像两类;
(20)样本标注:对训练样本集图像和测试样本集图像中的物体分别作物体框标注和语义分割标注;
(30)深度卷积网络模型训练:利用标注好的训练样本对深度卷积网络进行训练,利用测试集样本对深度卷积网络进行测试,验证模型的训练效果,最终得到深度卷积网络模型;
(40)实时物体检测:利用深度卷积网络模型,进行现实中实时场景下的物体检测。
2.根据权利要求1所述的方法,其特征在于,所述(20)样本标注步骤包括:
(21)物体外接框标注:将图像中各个物体进行人工标注,物体外接框的四条边须与物体四周边界相切;
(22)图像语义标注:按照图像的每个像素点所属的物体种类将像素点分类,并以代表不同物体种类的对应的像素值记录在语义分割图中对应于原图的位置;
(23)将每张图像中物体框标注和语义分割标注相结合,得到图像上同时属于同一种物体的物体框和语义分割的像素点,即物体边界关键点。
3.根据权利要求2所述的方法,其特征在于,所述(21)物体框标注步骤具体为:在图像中用物体框将被标注物体标注,物体框必须与被标注物体四周相切;记录图像的尺寸、物体框左上角和右下角在图像上的坐标、被标注物体的种类编码。
4.根据权利要求2所述的方法,其特征在于,所述(22)图像语义标注步骤具体为:被标注物体种类和标注颜色(像素值)一一对应;语义标注图与原图尺寸一致,根据对应于原图中所属于的物体,确定语义标注图上每个像素点的像素值。
5.根据权利要求1所述的方法,其特征在于,所述(30)深度卷积网络模型训练步骤包括:
(31)网络模型参数确定:根据深度网络实验,确定网络模型参数。所述网络模型参数包括卷积层数、各层卷积核参数、反卷积层数、各层反卷积核参数、特征图数量、激活函数、随机项;
(32)网络训练:利用标注好的训练样本集,对深度卷积网络进行有监督训练,同时进行语义分割和边界关键点预测训练;
(33)网络模型测试:通过测试样本集图像对深度卷积网络模型进行性能测试。
6.根据权利要求5所述的方法,其特征在于,所述(32)网络训练步骤包括:
(321)语义分割子网络训练:
以所述语义分割标注为训练标注,与语义分割子网络输出计算出分割误差,通过反向传播算法调整网络参数。
(322)边界关键点预测子网络训练:
以所述边界关键点标注为训练标注,与边界关键点预测子网络的输出计算出边界关键点预测误差,通过反向传播算法调整网络参数。
7.根据权利要求6所述的方法,其特征在于,边界关键点预测子网络共用语义分割子网络所有神经元。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811047839.5/1.html,转载请声明来源钻瓜专利网。