[发明专利]一种快速车辆检测方法有效
申请号: | 201910047520.0 | 申请日: | 2019-01-18 |
公开(公告)号: | CN109829400B | 公开(公告)日: | 2023-06-30 |
发明(设计)人: | 王国栋;王亮亮;潘振宽;徐洁;王岩杰;李宁孝;胡诗语 | 申请(专利权)人: | 青岛大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40 |
代理公司: | 青岛高晓专利事务所(普通合伙) 37104 | 代理人: | 于正河 |
地址: | 266071 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 快速 车辆 检测 方法 | ||
本发明属于深度学习中的视频检测技术领域,具体涉及一种基于车窗特征的快速车辆检测方法,提出以车窗代替车体作为目标物进行检测,结合ResNet网络的残差模块和SSD算法的多尺度特征提取方法,借鉴YOLOv3的网络结构,构建了只有24个卷积层的全卷积检测方法;在车流量较大的情况下,批量测试时,平均检测精度接近100%,平均检出率达到90%,检测速度达到22毫秒/帧,实现对道路高清监控视频中车辆的实时检测,有效的提高较大车流量中车辆的检出率,具有重要的应用价值。
技术领域:
本发明属于深度学习中的视频检测技术领域,具体涉及一种基于车窗特征的快速车辆检测方法,特别是一种能快速实现对运动车辆状态检测的方法。
背景技术:
目前,基于卷积神经网络(Convolutional Neural Networks,CNN)的深度学习算法发展迅猛,依靠其强大的特征提取能力,在目标检测识别方面取得了很高的精度。但目前的基于深度学习的检测算法有一大缺点,就是速度问题,如Faster R-CNN等带有regionproposal(提前选取感兴趣区域,然后进一步做检测)步骤的算法,检测精度很高,如中国专利CN2018106089322公开了一种大型施工车辆扬臂检测算法,收集图片,采用Faster RCNN算法检测,计算车身面积与整个车辆面积的比,达到更好的检测准确率。但Faster R-CNN的检测速度却不能达到多目标高清视频实时检测的要求。深度学习领域以速度著称的YOLO(You Only Look Once)将物体检测作为回归问题求解,基于一个单独的端到端的网络,完成从原始图像的输入到物体位置和类别的输出,没有显式的提取region proposal的过程,大大的提高了检测速度,使得YOLOv1在较小图片的检测速度上达到了45FPS,其简化版本达到了155FPS,满足了高清视频实时检测所需的检测速度,但它却牺牲了很多精度。YOLOv3的出现,使得检测精度大大提高,速度降低了一些,对于目标物较少的低像素视频还可以达到实时检测的要求,但面对多目标物的高清监控视频,YOLOv3的速度就难以达到实时检测的要求。
现有技术中,在道路监控设备中需要嵌入检测系统,用来实时生成道路状况,或者统计车流量。这时,监控视野范围内的车辆数量很多,单帧视频生成的图像中经常会出现20个目标物,且高清监控视频单帧图片的像素值较大,此时YOLOv3速度上是达不到实时检测的要求。如中国专利CN2016105281180公开了基于局部特征分析的车辆排队长度快速检测算法,将视频检测区域从整幅图像优化到图像的局部特征,在检测车辆排队长度这一交通信息中仅选取包含车道画面的三列像素值,在加权重构的基础上形成一维特征数组进行分析,运算速率快准确率高,单帧处理耗时10ms。此外还存在的一个问题是,车辆较多时,存在前后车辆之间的相互遮挡,此时视野中车辆的整体特征点不完全,两辆车特征点相互融合,在用非极大值抑制处理时,经常造成将多辆车框在一起,识别为一辆车的情况,这样就会大大降低对车辆的检测识别精度,这也是车辆检测中的一个难点。
发明内容:
本发明的目的在于克服现有技术存在的不足,寻求设计一种快速车辆检测方法,基于车窗特征作为被检测对象,结合ResNet(残差连接网络)的残差模块和SSD(SingleShot Detector)算法的多尺度特征提取工艺,借鉴YOLOv3的网络结构,构建只有24个卷积层的全卷积检测方法,更好的解决道路上运动车辆检测中相互遮挡车辆难以准确检出的问题和现有基于深度学习的检测算法不能实时对监控视频中的车辆做检测的问题。
为了实现上述目的,本发明提供的快速车辆检测方法,其工艺过程包括以下步骤:
(1)采集数据:从对道路中的车辆进行实时交通监控视频中截取不同条件下的大量图片,图片大小为1920px×1080px,将此作为数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于青岛大学,未经青岛大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910047520.0/2.html,转载请声明来源钻瓜专利网。