[发明专利]一种基于深度神经网络的无重叠区域行人跟踪方法有效
| 申请号: | 201810192601.5 | 申请日: | 2018-03-09 |
| 公开(公告)号: | CN108509859B | 公开(公告)日: | 2022-08-26 |
| 发明(设计)人: | 韩光;葛亚鸣;苏晋鹏;李晓飞 | 申请(专利权)人: | 南京邮电大学 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V10/84;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 柏尚春 |
| 地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 神经网络 重叠 区域 行人 跟踪 方法 | ||
本发明公开了一种基于深度神经网络的无重叠区域行人跟踪方法,该方法包括以下步骤:(1)采用YOLO算法对监控视频图像中当前行人目标进行检测,分割行人目标图片;(2)使用卡尔曼算法对所述检测结果跟踪预测;(3)利用卷积神经网络提取图片的深度特征,所述图片包括候选行人图片和所述步骤(2)中的目标行人图片,并存储所述候选行人的图片及其特征;(4)计算目标行人特征与候选行人特征的相似度并排序,识别出所述目标行人。本发明可获得较高的检测与跟踪精度,从而有助于提升行人识别率。
技术领域
本发明涉及一种行人跟踪方法,具体涉及一种基于深度神经网络的无重叠区域行人跟踪方法。
背景技术
近年来视频监控系统的需求日益增加,对于大部分的视频监控系统来说,监控视频中出现的人都是其重点关注的对象,因此智能监控系统需要拥有对行人目标进行检测、识别、跟踪的能力,以便进一步对其的行为进行分析。由于摄像机监控区域的局限性,无重叠视域的摄像机联合监控在监控系统中的应用越来越广泛,而要实现这些功能需要拥有优秀的行人检测与行人再识别技术。
公开号为CN 105574515 A的专利公开了“一种无重叠视域下的行人再识别方法”,该方法采用基于HOG+SVM的行人检测算法进行行人检测,然后采用TLD算法对目标行人进行跟踪。行人再识别部分为行人目标的上半身和下半身的分别构建HSV三通道稀疏字典,并计算与另一监控视域下稀疏重构后的行人目标之间的重构误差,并融合判决从而得到匹配相似度。由于HOG+SVM检测算法,TLD跟踪算法以及构建多通道稀疏字典的局限性,使得在困难条件下该方法难以实时、准确地跟踪无重叠区域下的行人目标。
发明内容
发明目的:为了克服现有技术的不足,本发明提供一种基于深度神经网络的无重叠区域行人跟踪方法,该方法采用YOLO检测算法、卡尔曼跟踪算法以及深度残差网络对目标行人进行检测与跟踪,解决了检测精度与跟踪精度低的问题,提升了行人的识别率。
技术方案:本发明所述的基于深度神经网络的无重叠区域行人跟踪方法,包括以下步骤:
(1)采用YOLO算法对监控视频图像中当前行人目标进行检测,分割行人目标图片;
(2)使用卡尔曼算法对所述检测结果跟踪预测;
(3)利用卷积神经网络提取图片的深度特征,所述图片包括候选行人图片和所述步骤(2)中的目标行人图片,并存储所述候选行人的图片及其特征;
(4)计算目标行人特征与候选行人特征的相似度并排序,识别出所述目标行人。
优选的,所述步骤(2)包括:
(21)根据所述当前行人检测结果和所述卡尔曼算法,预测所述当前行人在下一帧图像中的位置,并将所述位置更新到预测框中;
(22)对检测框和所述预测框的结果进行配对,计算所述检测框和所述预测框之间的欧式距离;
(23)更新配对成功与配对未成功的预测情况。
优选的,所述检测框的显示方法为:
采用YOLO检测模型对输入的所述监控视频的每一帧进行检测,并将其设为只检测行人且设置置信度阈值,只显示所述置信度得分高于所述阈值的所述目标行人的检测框。
优选的,所述步骤(3)中,提取目标行人图片的深度特征与候选行人图片的深度特征的为同一个卷积神经网络,包括:
卷积模块Conv1:卷积核大小为7×7,输出为64张特征图;输入数据下采样层pool1:池化窗口大小为3×3,输出为64张特征图;
卷积模块Conv2:包含3个残差单元,每个残差单元包含3个卷积层,卷积核大小分别为1×1,3×3和1×1,最终输出256张特征图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810192601.5/2.html,转载请声明来源钻瓜专利网。





