[发明专利]一种基于深度学习和多目标跟踪的行人流量统计方法有效
申请号: | 201811400758.9 | 申请日: | 2018-11-22 |
公开(公告)号: | CN109522854B | 公开(公告)日: | 2021-05-11 |
发明(设计)人: | 朱志宾;徐清侠;李圣京;周敏仪 | 申请(专利权)人: | 广州众聚智能科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/40;G06K9/46;G06N3/08 |
代理公司: | 成都顶峰专利事务所(普通合伙) 51224 | 代理人: | 李想 |
地址: | 510000 广东省广州市黄埔区(高新技术产业开发区)科学城*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 多目标 跟踪 行人 流量 统计 方法 | ||
本发明涉及图像处理技术领域,其目的在于提供一种基于深度学习和多目标跟踪的行人流量统计方法。本发明主要包括以下步骤:S1:拍摄行人监控视频并读取视频中的图像;S2:设定图像的有效区域及流量计数;S3:构建基于深度学习的行人检测模型并对其进行训练;S4:进行当前行人检测,得到当前行人框的坐标及图像块;S5:利用基于深度学习的多目标跟踪算法对当前行人进行跟踪,并产生当前行人的坐标;S6:生成当前行人的移动轨迹;S7:判断当前行人是否离开有效区域;若是则进入步骤S8,若否则进入步骤S4;S8:选取噪声阈值并进行噪声判断;S9:删除当前行人在连续视频帧中的坐标。本发明可在实际使用场景中提供实施精确的流量统计结果。
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于深度学习和多目标跟踪的行人流量统计方法。
背景技术
监控摄像头的普及与图像处理技术的发展为智能监控提供了很好的条件。行人流量统计在智能监控中运用较广,可以用于医院、通道、店铺等各种场合。一个准确的流量信息可以帮助进行合理的资源配置,估算店铺租金水平以及经营状况等,具有非常重大的意义。
目前有许多人流量统计的方法,一类是依赖于硬件传感器设备,一类是直接对视频进行处理。其中传感器受人流密度影响较大;而对视频处理进行人流量统计的方法主要有如下几种:a、基于人脸识别的方法,该方法受到脸部遮挡和头部姿态影响;b、基于人头检测和跟踪的方法,该方法将摄像头放置顶部,对安装环境有要求,同时帽子类遮挡会产生较大影响,跟踪算法较简易容易造成跟踪错误;c、基于头肩检测和跟踪的方法,跟踪算法较简易,但行人密度大容易出错;d、基于人体匹配和跟踪的方法,该方法中会采用服饰或一些传统特征来判断行人,容易产生较大误差;e、基于多摄像头的方法,该方法要求多个摄像头对行人进行匹配计数。另外,上述的人流量计数方式基本以目标移动轨迹越过辅助线来累加,而由于采用的跟踪算法简易,人多时往往容易导致跟踪错乱,轨迹混乱从而影响计数,行人流量统计精确度低。
发明内容
本发明提供了一种基于深度学习和多目标跟踪的行人流量统计方法,可在实际使用场景中提供实施精确的流量统计结果。
本发明采用的技术方案是:
一种基于深度学习和多目标跟踪的行人流量统计方法,包括以下步骤:
S1:实时拍摄行人监控视频,读取行人监控视频连续视频帧中的图像;
S2:设置连续视频帧中图像的有效区域,并设置初始值为0的流量计数;
S3:构建基于深度学习的行人检测模型并对其进行训练;
S4:利用训练好的行人检测模型对设置了有效区域的图像进行缩放,然后对图像进行当前行人检测,得到当前行人框的坐标及图像块,当前行人框用于指示在图像中存在当前行人的区域;
S5:利用基于深度学习的多目标跟踪算法对当前行人进行实时跟踪,并产生当前行人在连续视频帧图像中的坐标;
S6:根据当前行人在连续视频帧中图像的坐标生成当前行人的移动轨迹;
S7:根据当前行人的移动轨迹,利用多目标跟踪算法实时判断当前行人是否离开有效区域;若是则进入步骤S8,若否则进入步骤S4;
S8:选取噪声阈值并对当前行人的移动轨迹进行噪声判断;若当前行人的移动轨迹的坐标数小于噪声阈值,则判定当前行人的移动轨迹为噪声轨迹;若当前行人的移动轨迹的坐标数大于或等于噪声阈值,则判定当前行人的移动轨迹为有效轨迹,并对流量计数的数值加1;
S9:删除当前行人在连续视频帧中的坐标,然后重复步骤S4。
优选的,在所述步骤S3中,所述行人检测模型是使用YOLOv3网络结构训练所得。
优选的,所述步骤S5的具体步骤如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州众聚智能科技有限公司,未经广州众聚智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811400758.9/2.html,转载请声明来源钻瓜专利网。