[发明专利]基于改进YOLOv2的视频图像行人检测方法及系统有效
申请号: | 201910097521.6 | 申请日: | 2019-01-31 |
公开(公告)号: | CN109829428B | 公开(公告)日: | 2020-01-17 |
发明(设计)人: | 党建武;王松;王阳萍;兰文博;高德勇;赵庶旭;张振海;闵永智;金静;苏翔宇 | 申请(专利权)人: | 兰州交通大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 11569 北京高沃律师事务所 | 代理人: | 程华 |
地址: | 730000 甘*** | 国省代码: | 甘肃;62 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 行人检测 网络结构 视频图像 行人数据 算法 更新 视频图像处理 对视频图像 改进 聚类处理 聚类算法 候选框 实时性 检测 漏检 误检 遮挡 替换 应用 | ||
本发明公开了一种基于改进YOLOv2的视频图像行人检测方法及系统,涉及视频图像处理技术领域,包括利用K‑Means++聚类算法对视频图像行人数据集进行聚类处理确定初始候选框,确定更新值;然后用更新值替换原YOLOv2算法的原始值;在更新后YOLOv2算法的网络结构的基础上添加了3个Passthrough层得到改进后的YOLOv2网络结构;利用视频图像行人数据集对改进后的YOLOv2网络结构进行训练,得到训练好的行人检测模型,进行行人检测。应用本发明,能够提高检测速度和检测精度,改善行人检测中出现的漏检、误检、遮挡等现象,满足实时性的要求。
技术领域
本发明涉及视频图像处理技术领域,具体为一种基于改进YOLOv2的视频图像行人检测方法及系统。
背景技术
在手工设计特征的方法中,基于方向梯度直方图(Histogram ofOrientedGradient,HOG)算法和支持向量机(SupportVectorMachine,SVM)算法的行人检测是行人检测领域最经典的算法,它是速度和效果综合平衡性较好的一种行人检测方法。后来,虽然很多研究人员也提出了很多改进的行人检测算法,但基本都以该算法为基础框架。因此,HOG+SVM也成为一个里程表式的算法被写入到OpenCV(一个基于BSD许可(开源)发行的跨平台计算机视觉库)中。HOG算法是一种解决人体目标检测的图像描述子,通过计算局部区域上的梯度方向直方图来表示人体特征,但是它对光照变化和微小的偏移不敏感。
R-CNN的全称是Region-CNN,是第一个成功将深度学习应用到目标检测上的算法,R-CNN基于卷积神经网络(CNN),线性回归和支持向量机(SVM)等算法实现目标检测的技术。R-CNN的进阶版Fast-RCNN就是在R-CNN的基础上采纳了SPP Net方法,对R-CNN作了改进,使得性能进一步提高。Faster-RCNN是在Fast-RCNN的基础上加入一个提取边缘的神经网络,主要贡献是设计了提取候选区域的网络RPN,代替了费时的选择性搜索,使得检测速度大幅提高。这类方法的一般步骤是:候选区域生成->深度网络提取特征->分类器分类,回归修正。但是这三种方法都不是端到端的网络结构,在实时性上还是不能达到视频图像的要求。
发明内容
本发明的目的在于,针对上述问题,提出一种基于改进YOLOv2的视频图像行人检测方法及系统,以提高检测速度,并改善行人检测中出现的漏检、误检、遮挡等现象,提高行人检测的位置精度,在视频检测中可以达到25帧每秒,满足实时性的要求。
为实现上述目的,本发明提供了如下方案:
一种基于改进YOLOv2的视频图像行人检测方法,包括:
制备带有标注信息的视频图像行人数据集;所述视频图像行人数据集由视频帧行人图像数据集和INRIA行人数据集组成;所述视频帧行人图像数据集为在TUD视频数据集中截取的视频帧行人图像所组成的数据集;
利用K-Means++聚类算法对所述视频图像行人数据集进行聚类处理,确定初始候选框;
根据所述初始候选框计算更新值,并用所述更新值替换原YOLOv2算法的原始值,得到更新后的YOLOv2算法;
在所述更新后的YOLOv2算法的网络结构的基础上添加3个Passthrough层,得到改进后的YOLOv2网络结构;
利用所述视频图像行人数据集,对所述改进后的YOLOv2网络结构进行训练,得到训练好的行人检测模型;
将实时获取的视频帧行人图像输入到所述训练好的行人检测模型中进行行人检测。
可选的,所述制备带有标注信息的视频图像行人数据集,具体包括:
在所述TUD视频数据集中截取视频帧行人图像,得到初始视频帧行人图像数据集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于兰州交通大学,未经兰州交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910097521.6/2.html,转载请声明来源钻瓜专利网。