[发明专利]一种基于深度学习的人群密度检测方法和系统在审
| 申请号: | 201710177154.1 | 申请日: | 2017-03-23 |
| 公开(公告)号: | CN107145821A | 公开(公告)日: | 2017-09-08 |
| 发明(设计)人: | 李康顺;黄鸿涛;郑泽标;陆誉升;冯思聪;邓坚 | 申请(专利权)人: | 华南农业大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/45 |
| 代理公司: | 广州市华学知识产权代理有限公司44245 | 代理人: | 郑浦娟 |
| 地址: | 510642 广*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 人群 密度 检测 方法 系统 | ||
1.一种基于深度学习的人群密度检测方法,其特征在于,步骤如下:
S1、通过摄像头实时的获取每帧图像,取出前若干帧图像,然后对这若干帧图像进行背景学习,得到背景图像信息;
S2、针对之后的各帧图像,依据步骤S1中获取到的背景图像信息,采用背景差分法提取出各帧图像中的目标前景图像;
S3、选取出多帧步骤S2中已提取出目标前景图像且属于低密度人群等级的图像,对选取出的各帧图像标定人群数量,依据上述选取的各帧图像中目标前景图像像素的数目和人群数量之间的关系拟合得到第一低密度人群模型,或者根据上述选取各帧图像中目标前景图像的边缘像素数目和人群数量之间的关系拟合得到第二低密度人群模型;同时选取出多帧步骤S2中已提取出目标前景图像且属于高密度人群等级中各个等级的图像作为训练样本,采用灰度共生矩阵提取各训练样本目标前景图像的纹理特征,将各训练样本目标前景图像的纹理特征输入至BP神经网络,对BP神经网络进行训练,得到高密度人群模型;
S4、针对于步骤S2中获取到的需要检测人群密度的各帧图像,将图像的目标前景图像像素的数目输入至第一低密度人群模型,获取到人群数量,然后判断获取到的人群数量是否超过一定值F,若否,则根据上述获取到的人群数量确定出人群密度等级,若是,则进入步骤S5;
或者针对于步骤S2中获取到的需要检测人群密度的各帧图像,将图像目标前景图像的边缘像素的数目输入至第二低密度人群模型,获取到人群数量,然后判断获取到的人群数量是否超过一定值F,若否,则根据上述获取到的人群数量确定出人群密度等级;若是,则进入步骤S5;
S5、采用灰度共生矩阵提取图像的目标前景图像的纹理特征,将提取的纹理特征输入至高密度人群模型中,通过高密度人群模型的输出获取到人群密度等级。
2.根据权利要求1所述的基于深度学习的人群密度检测方法,其特征在于,所述步骤S1中背景学习的过程如下:
S11、针对取出的前若干帧图像中的第一帧图像首先转换成灰度图像,并且根据该帧灰度图像的每个像素点分别建立初始码本;第一帧图像的每个像素点对应一个初始码本,其中每个初始码本中包含一个码元,该码元记录的是第一帧图像中对应像素点的灰度值;并且设置开始学习阈值;
S12、针对于取出的前若干帧图像中第一帧图像之后的图像,每当获取到下一帧图像时,首先将该帧图像转换成灰度图像,并且针对该帧灰度图像的各像素点进行以下操作:
将该帧灰度图像的像素点与之前帧灰度图像的相同位置像素点构成的当前码本进行码本匹配,检测该帧灰度图像像素点灰度值是否在之前帧灰度图像相同位置像素点构成的当前码本的某个码元的学习阈值范围内;
若是,则根据该帧灰度图像的像素点灰度值更新该码元的码元成员变量,其中码元的成员变量中包括像素点的灰度值最大值和灰度值最小值;
若否,则根据该帧灰度图像的像素点的灰度值建立一个新码元,通过该新码元记录该帧灰度图像的该像素点的灰度值,并且添加到当前码本中,得到更新后的码本,同时更新当前学习阈值;
S13、检测S12中获取到的帧是否为取出的前若干帧图像中的最后一帧图像
若否,则在获取到下一帧图像时,继续执行步骤S12;
若是,则背景学习完成,根据步骤S12获取到的各像素点分别对应的码本获取到背景图像信息。
3.根据权利要求2所述的基于深度学习的人群密度检测方法,其特征在于,所述步骤S11中将开始学习阈值设置为10。
4.根据权利要求2所述的基于深度学习的人群密度检测方法,其特征在于,所述步骤S12中通过对当前学习阈值进行加1以实现更新。
5.根据权利要求2所述的基于深度学习的人群密度检测方法,其特征在于,所述步骤S12中码元的学习阈值范围为:码元记录的像素点灰度值-学习阈值~码元记录的像素点灰度值+学习阈值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南农业大学,未经华南农业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710177154.1/1.html,转载请声明来源钻瓜专利网。





