[发明专利]一种基于深度学习图像语义分割的人数估计方法有效
申请号: | 201710947732.5 | 申请日: | 2017-10-12 |
公开(公告)号: | CN107679502B | 公开(公告)日: | 2019-10-08 |
发明(设计)人: | 林坚 | 申请(专利权)人: | 南京行者易智能交通科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210014 江苏省南京市秦淮区永智路6*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 网络模型 掩码 训练样本集 人数估计 图像分块 图像区域 位置预测 学习图像 语义分割 构建 图片中点 图像语义 标签图 检测 图片 分割 统计 | ||
本发明公开了一种基于深度学习图像语义分割的人数估计方法,包括步骤1,构建训练样本集:包括原图及对应的掩码标签图;步骤2,选择或构建基于图像语义分割的深度网络模型;步骤3,训练样本集,得到人头位置预测网络模型;步骤4,输入待检测图片人头位置预测网络模型,得到掩码图片,根据掩码图片中点的位置和点的个数可得到待检测图片中的估计人数以及每个人的位置信息。本发明所述的方法相比于现有技术中大多采用的基于图像分块的估计方法,能够克服图像分块带来的统计误差;能够同时提供图像区域中的估计人数和每个行人在图像区域中的位置。
技术领域
本发明涉及图像处理与计算机视觉领域,特别涉及一种基于深度学习图像语义分割的人数估计方法。
背景技术
人数估计在很多场景下均有应用价值,例如在公共安全方面,人群聚集过多易发生踩踏等事故,当人群密度达到一定规模则控制人数,例如在城市或商业规划方面,分析出感兴趣区域的人流量,高效规划商业布置;当然,如果能够确定区域内每个人所在的位置,就可以将更加细化的人群密度信息加以利用。
现有技术中有较多人群密度或人数估计方法,例如专利号为CN201610536882的中国发明专利申请,名称为一种基于卷积神经网络的人群密度估计方法,该方法基于mixed-Pooling的卷积神经网络模型,最终得到的结果是某个区域的密度等级(中、高、低),而不能给出区域内的估计行人个数;又例如专利号为CN201210434490的中国发明专利申请,名称为一种可跨摄像机的自适应人群密度估计方法,该方法也不能给出区域内人数估计。上述方法不能给出区域内估计人数,但也有些专利方法可以给出估计人数,但大多都需要先进行图像分块,再进行例如特征提取等处理,例如专利号为:CN201510336483(一种基于深度学习的密集人数估计方法)、CN201610065279(一种基于整数规划的人群密度估计方法)、CN201610374700(一种基于多特征回归式继承学习的人群密度估计方法)的中国发明专利申请,这些方法由于对图像进行了分块处理,从而分块后像素块与像素块间边缘的人头被切分,带来不小的误差,造成估计结果不够准确。并且,上述现有技术均不能解决如何给出区域内每个行人的分布位置这一技术问题。
发明内容
针对上述方法的不足,本发明的目的是提供一种基于深度学习图像语义分割的人数估计方法,该方法能克服图像分块带来的误差,相比于基于图像分块的估计方法更准确,且能同时给出每个行人在图像区域内的位置。
为解决上述技术问题,本发明采取以下技术方案:一种基于深度学习图像语义分割的人数估计方法,所述方法包括以下步骤:
步骤1,构建训练样本集:采集待检测区域的视频图像,对每一张样本图片,标注出图像中的人头部位置,生成对应的掩码图片作为其标签,掩码图片中每个光圈点对应一个人头,原图及对应的标签掩码图作为训练样本集;
步骤2,选择或构建基于图像语义分割的深度网络模型;
步骤3,将样本集送入步骤2中确定的深度学习网络模型进行训练,得到适用于该数据集场景的模型,称为人头位置预测网络模型;
步骤4,输入与训练样本图片长宽相同的待检测图片至步骤3中训练得到的人头位置预测网络模型,得到预测的掩码图片,根据掩码图片中光圈点的位置和光圈点的个数可得到待检测图片中的人数以及每个人的位置信息。
本发明有如下技术效果和优点:
1、相比于现有技术中大多采用的基于图像分块的估计方法,能够克服图像分块带来的统计误差。
2、能够同时提供图像区域中的估计人数和每个行人在图像区域中的位置。
3、可获取场景下特定区域内人数和划分密集等级等更加细化的行人密度信息。
4、遮挡严重情况也能得到很好的预测效果。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京行者易智能交通科技有限公司,未经南京行者易智能交通科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710947732.5/2.html,转载请声明来源钻瓜专利网。