[发明专利]基于深度学习的行人检测模型构建方法及行人检测方法有效
申请号: | 201911309623.6 | 申请日: | 2019-12-18 |
公开(公告)号: | CN111191535B | 公开(公告)日: | 2022-08-09 |
发明(设计)人: | 李旻先;张基文 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 陈鹏 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 行人 检测 模型 构建 方法 | ||
本发明公开了一种基于深度学习的行人检测模型构建方法及行人检测方法,该方法设计了一种深度卷积神经网络结构,联合采用改进的排斥损失来监督深度卷积神经网络的训练,该方法首先利用特征提取网络从图像中提取特征图,然后利用多步预测的方式生成行人预测框,最后利用非极大值抑制策略过滤出最终的行人检测框。本发明提出的方法能够有效减少由于类内遮挡引起的漏检和误检。
技术领域
本发明涉及计算机视觉和模式识别领域,具体涉及一种基于深度学习的行人检测模型构建方法及行人检测方法。
背景技术
计算机视觉近几年来一直是研究的热点和难点,而行人检测作为高层视觉任务的基础,已成为计算机视觉领域中至关重要的研究问题。
计算机视觉即通过机器视觉来模仿人眼的视觉系统,认知心理学和神经生物学的研究发现,人类在识别一个具体的物体是什么之前具有一种很强的感知物体的能力。对一幅复杂的图像来说,人类的视觉系统在一开始的反应时间内只会关注其中的某些部分,并忽略图像中其余不显著的部分。这进一步说明在识别一个具体事物之前,在人类的视觉系统中存在一个简单的视觉注意机制,该机制用来筛选出最有可能含有物体的区域。
近年来,卷积神经网络(CNN)在计算机视觉和模式识别方面表现出了强大的能力。许多基于CNN的物体检测方法已经被提出,这促进了行人检测的学术研究和应用进展。目前最先进的行人检测方法为SSD,SSD是端到端的目标检测算法,SSD框架主要包括两部分:特征提取网络和预测网络。其中,特征提取网络用于提取图像特征,生成特征图,现有的特征提取网络提前到的特征不够丰富,且参数多、计算量大。SSD模型在预测阶段,通过直接预测真实框相对于先验框的偏移量,得到目标检测框,缺少了对预测框的修正过程,导致预测框不能准确定位行人。另外,现有的SSD中使用的损失函数缺少对遮挡行人的特殊处理。
发明内容
本发明目的在于提供一种基于深度学习的行人检测模型构建方法及行人检测方法,以提高SSD模型在行人检测方面的性能。
实现本发明目的的技术方案为:一种基于深度学习的行人检测模型构建方法,包括以下步骤:
步骤A1,对行人数据集做预处理,然后利用特征提取网络,提取行人特征,生成特征图;
步骤A2,将特征图和先验框输入预测网络,生成预测框并作为新的先验框,然后将特征图和新的先验框输入预测网络,生成行人预测框;
步骤A3,利用行人数据集训练用于检测行人的深度卷积神经网络,并输出训练好的用于检测行人的深度卷积神经网络;所述深度卷积神经网络的损失由Focal Loss分类损失和具有吸引和排斥功能的定位损失组成。
一种基于深度学习的行人检测方法,包括如下步骤:
步骤B1,输入待检测行人图像;
步骤B2,利用步骤A2中训练好的特征提取网络提取待检测图像的特征,生成特征图,并通过A3训练好的预测网络生成检测框;
步骤B3,利用非极大值抑制策略对步骤B2中生成的检测框进行筛选,并输出行人检测结果。
与现有技术相比,本发明的显著优点为:(1)本发明采用ResNet-50作为特征提取网络,并生成4个不同尺度的特征图,保证了模型既能检测到较大目标又能有效的发现小目标;(2)本发明采用两步预测的方式,第二次是在第一次预测框的基础上做预测,相当于增加了预测框的修正过程,使预测框定位更加准确;(3)针对行人间的密集遮挡问题,本发明使用GIoU损失替换SmoothL1损失作为新的吸引项,并增加了辅助排斥损失项,能够更好的将遮挡率高的行人区分开来,减少了检测器的漏检和误检,提高了检测器的鲁棒性。
附图说明
图1是基于深度学习的行人检测模型构建方法及行人检测方法流程图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911309623.6/2.html,转载请声明来源钻瓜专利网。