[发明专利]基于改进CenterNet骨干网络的视频目标检测算法在审
申请号: | 202210261866.2 | 申请日: | 2022-03-17 |
公开(公告)号: | CN114639042A | 公开(公告)日: | 2022-06-17 |
发明(设计)人: | 孙崐;甄伊凡;张彬 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/80;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 改进 centernet 骨干 网络 视频 目标 检测 算法 | ||
本发明公开了一种基于改进CenterNet骨干网络的视频目标检测算法,包括以下步骤:数据集采集;构建训练数据集;图像特征提取;图像特征融合;目标检测结果输出。本发明改进CenterNet骨干网络的目标检测算法包括利用ADS‑DLA34代替DLA34骨干网络。在ADS‑DLA34网络中,将软池化代替DLA34网络下采样的传统池化方式、可变形卷积代替上采样传统2D卷积、并在网络中结合注意力机制。使得改进之后的网络减少了目标特征信息的损失、增强对形变遮挡目标的学习能力、且网络更关注于图像中的关键信息,增强了模型特征提取融合的能力。从而以改进模型结构的角度,提高目标检测算法的性能,既保证了目标检测速度,又提高了目标检测精度,增强了不同领域下尤其是视频中目标物体的检测识别能力。
技术领域
本发明涉及图像处理技术领域,具体涉及目标检测领域,尤其涉及一种改进CenterNet骨干网络DLA34的ADS-DLA34目标检测算法。
背景技术
目标检测作为计算机视觉中重要的研究领域,具有广泛的研究方向。其中在交通、监控视频中行人检测与跟踪是重要的研究方向之一。计算机视觉即是研究视觉感知的问题,对采集的图像或视频图像序列处理分析,以接收场景中的信息。计算机视觉主要包括目标检测、目标跟踪、图像处理、目标识别、姿态分析等方面。如在目标检测中,仅凭人类的双眼难以在一些拥挤的场景中对一些存在遮挡的行人进行检测跟踪,而且人工检测的成本比较高,速度较慢。随着智能技术的发展,通过计算机视觉中的方法可以补充和改善人类视觉能力的不足,从而帮助人类更好的完成各项任务。
近年来,深度学习技术发展迅速,其中卷积神经网络也被大量应用于目标检测和跟踪领域。基于卷积神经网络下的目标检测和跟踪算法在检测准确度和跟踪精度方面都优于传统的方法。但是目前仍然存在一些难点问题,例如在视频中行人目标检测时由于遮挡造成的形态变化,从而导致误检和漏检等情况;在目标特征提取时,特征信息提取不充分,进而影响目标检测精度。
随着深度学习技术的飞速发展,主流深度学习的目标检测算法分为两类:基于锚框(anchor-based)和基于无锚框(anchor-free)两类,anchor-based方法即是在输入图像上预设一些大小一定的矩形框,但是会存在一些问题,如预设的矩形框过多,计算量会加大从而导致速度变慢。
CenterNet是一种全新的基于anchor-free的深度神经网络识别算法,CenterNet根据检测框的中心点来检测物体,仅需要一个关键点定位对象,因此仅有一个分支,网络结构更加简单,减少训练和推理预测时间,从而提高了检测精度和速度。
发明内容
本发明的目的在于针对现有技术存在的一些问题,提供一种精度较高、速度较快的目标检测算法,以解决上述问题。
为实现上述目的,本发明采用改进CenterNet骨干网络DLA34的ADS-DLA34目标检测算法的技术方案包括以下步骤:
步骤S1:数据集采集,所述的采集数据集包含待检测目标的若干图像,本发明采集开源的数据集图像。
步骤S2:构建改进CenterNet骨干网络DLA34的ADS-DLA34训练数据集。
步骤S3:图像特征提取,所述的图像特征提取是ADS-DLA34网络采用小步进的下采样率实现不同层级之间目标特征的提取。
步骤S4:图像特征融合,所述的图像特征融合是DLA网络通过迭代深度聚合将不同阶段之间的特征融合,分层深度聚合将不同阶段之间的基本模块融合
步骤S5:目标检测结果输出,所述的检测结果输出就是经过特征提取特征融合后,通过注意力机制模块,输出带有特征权值的注意力特征图,在改进CenterNet骨干网络的最后加入三个网络层来输出目标检测预测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210261866.2/2.html,转载请声明来源钻瓜专利网。