[发明专利]基于深度学习目标检测的人群计数方法在审
申请号: | 201910004771.0 | 申请日: | 2019-01-03 |
公开(公告)号: | CN109886085A | 公开(公告)日: | 2019-06-14 |
发明(设计)人: | 陈友明 | 申请(专利权)人: | 四川弘和通讯有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 北京天奇智新知识产权代理有限公司 11340 | 代理人: | 杨春 |
地址: | 610000 四川省成都*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人群 检测 学习目标 网络 准确度 传统特征 基础网络 计数统计 目标检测 神经网络 损失函数 图像镜像 图像数据 网络模型 训练参数 训练数据 训练网络 视网膜 训练集 残差 构建 截取 稀疏 尺度 场景 学习 回归 优化 | ||
本发明公开了一种基于深度学习目标检测的人群计数方法,包括以下步骤:构建深度学习网络模型:采用以DarkNet网络为基础网络的YOLO3网络;训练数据的处理:通过多场景下获取人群图像数据,采用图像镜像处理,尺度上随机截取方式扩充训练集规模;训练网络:通过损失函数和梯度下降训练参数以优化网络。本发明针对现有人群计数的不足,在特定环境下采用基于深度神经网络目标检测方法对人群进行计数统计,解决了传统特征提取方法中的准确度低的问题,同时也解决了基于深度学习特征回归方法中的在人群稀疏情况下误差较大的问题,并且检测速度有很大提升,检测速度是基于101层残差网络RetinaNet(视网膜网络)速度的4倍,精度却与其相当。
技术领域
本发明涉及一种计算机视觉领域的人群计数方法,尤其涉及一种基于深度学习目标检测的人群计数方法。
背景技术
随着人口的增长,城市化进程的加速,人群大量聚集的行为越来越多,且规模越来越大,由此带来的踩踏事件也日趋增多。管理者为了方便城市的管理,在城市中安装了大量的摄像头。目前通过监控视频实现人群密度估计和准确的人群计数是当前计算机视觉领域的研究热点之一。该技术普遍应用在:
1、人群集中的高复杂场合。如:体育馆、食堂、广场等这种大型公共场所。通过人群计数系统可以估计指定区域的人群密度或实际人数,可以事实掌握人群动向,防止群体异常事件的发生。
2、流程式工作场合。如:机场、火车站等。这些场所应用人群计数方法可以事实得到行人数量及分布的准确数据,为科学分配服务与管理资源、合理调度等提供了可靠依据。
传统的人群计数方法的通常可以分为三种:
1、行人检测:利用计算机视觉技术判断图像或者视频序列中是否存在行人并给予精确定位。这种方法比较直接,在人群较稀疏的场景中,通过检测视频中的每一个行人,进而得到人群计数的结果。
2、视觉特征轨迹聚类:对于视频监控,一般是针对视频图像序列,用KLT跟踪器和聚类的方法,通过连续的两幅图的轨迹聚类得到的数目来估计人数。这种方法有很严格的要求,亮度、人群密度等对它都会有很大的影响。
3、基于特征的回归:
首先,通过前景分割将人群从图像中分割出来便于后面的特征提取;
然后,从分割得到的前景提取各种不同的底层特征,常用的特征有:人群面积和周长、边缘信息、纹理特征等;
最后,将提取到的特征回归到图像中的人数。常用的回归方法有:线性回归、高斯过程回归等。
由于拥挤情况下采用直接法容易受到遮挡等难点问题的影响,而间接法从人群的整体特征出发,具有大规模人群计数的能力,适合比较拥挤的场景。
上述传统计数方法的缺点如下:
1、行人检测一般是用基于背景和运动特征的boosting建模,利用背景建模方法,提取出前景运动的目标,在目标区域内进行特征提取,然后利用分类器进行分类,判断是否包含行人;背景建模目前主要存在的问题:
(1)必须适应环境的变化(比如光照的变化造成图像色度的变化);
(2)图像中密集出现的其他物体(比如树叶或树干等,要正确的检测出来);
(3)在人群稍微密集的场所不太适用。
为了解决速度问题可以采用背景差分法的统计学习行人检测,前提是背景建模的方法足够有效,即效果好速度快,但背景建模存在上述较多缺陷。
2、视觉特征轨迹聚类方法来进行人群计数,也会受到类似行人检测方法中背景建模的影响。而且该方法只适合使用在人数比较少的场景下使用,比如在公交车门口使用,如果场景中存在大量的遮挡情况,使用此方法得到的结果是不理想的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川弘和通讯有限公司,未经四川弘和通讯有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910004771.0/2.html,转载请声明来源钻瓜专利网。