[发明专利]基于级联高分辨卷积神经网络的密集人群计数算法有效
申请号: | 202010170236.5 | 申请日: | 2020-03-12 |
公开(公告)号: | CN111460912B | 公开(公告)日: | 2022-10-28 |
发明(设计)人: | 张姗姗;姚肇亮;杨健 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/40;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 陈鹏 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 级联 分辨 卷积 神经网络 密集 人群 计数 算法 | ||
本发明公开了一种基于级联高分辨卷积神经网络的密集人群计数算法,包括:估计密集人群图中单个人头的尺度大小,生成监督预测密度图;利用初级高分辨率特征提取网络HRNet提取输入图像的高分辨特征;利用高分辨率特征预测初级密集人群对应密度图像;基于初级高分辨率特征提取网络,构建级联高分辨特征提取网络CHRNet提取第二级高分辨率特征;采用分区域损失加权方式,使用MSE和计数误差两种损失函数进行网络参数优化;利用第二级高分辨率特征预测最终密集人群密度图;对密度图像素值进行累加求和,得到最终密集人群计数结果。本发明提高了密集人群计数的精度,有效改善了因分辨率低、人群遮挡、人群密度高等造成计数不准的情况。
技术领域
本发明涉及视觉人群密度分析领域,具体涉及一种基于级联高分辨卷积神经网络的密集人群计数算法。
背景技术
密集人群计数是许多与视觉人群密度分析相关应用的基本且重要的任务,例如安防监控、交通拥堵控制。此任务的目的是在图像中识别每个人的人头并获取图像中出现的所有人头的数目。目前大多数方法都是基于卷积神经网络的计数方法,其中包括单阶段卷积神经网络计数方法:利用卷积神经网络提取图像特征,进行密度预测得到密度图,基于密度图完成计数;多阶段卷积神经网络计数方法:设计多阶段集成网络模型,引入多阶段的损失函数监督网络参数优化,最终得到更精准的预测密度图。
Li Yuhong等人提出一种基于VGG-16网络的空洞卷积神经网络CSRNet,CSRNet通过将VGG-16网络最后的全连接层修改为空洞卷积层,使得网络的感受野进一步扩大,并且将保持了解码阶段的特征分辨率,有利于解决因最大值池化操作导致的分辨率下降问题。Ranjan Viresh等人迭代式卷积神经网络ic-CNN,ic-CNN由两个分支网络构成,低分辨率分支网络和高分辨率分支网络:低分辨率分支网络预测出低分辨率密度图;高分辨率分支网络迭代式地结合输入图像的特征和低分辨率密度图,预测出高分辨率密度图,最终完成计数。
尽管上述方法在密集人群计数上有很大进步,但是这些方法在解决高密度密集人群计数时依旧表现不佳,主要原因在于,这些方法的网络中存在池化操作层、步长大于一的卷积层,随着网络加深会使得特征分辨率下降,而低分辨率的特征不利于对密集人群的小尺度目标进行预测。所以需要设计一种保持特征高分辨率、提升密集人群中小尺度目标预测精度的计数方法。
发明内容
本发明的目的在于提供一种基于级联高分辨卷积神经网络的密集人群计数算法,解决密集人群计数中因分辨率低、人群遮挡、人群密度高等造成计数不准的问题。
实现本发明目的的技术解决方案为:一种基于级联高分辨卷积神经网络的密集人群计数算法,包括如下步骤:
步骤1、利用几何自适应高斯响应技术估计密集人群图中单个人头的尺度大小,生成监督预测密度图;
步骤2、利用初级高分辨率特征提取网络提取输入图像的高分辨率特征;
步骤3、利用高分辨率特征预测初级密集人群对应密度图;
步骤4、基于初级高分辨率特征提取网络,构建级联高分辨特征提取网络,提取第二级高分辨率特征;
步骤5、采用分区域损失加权方式,使用MSE和计数误差两种损失函数进行网络参数优化;
步骤6、利用第二级高分辨率特征预测最终密集人群密度图;
步骤7、利用最终密集人群密度图,对密度图像素值进行累加求和,得到最终密集人群计数结果。
本发明与现有技术相比,其显著优点在于:(1)本发明利用级联高分辨率特征提取网络对密集人群图像进行特征提取,解决了随着卷积网络加深带来的分辨率下降问题;(2)本发明利用分区域损失加权的方式网络参数,赋予不同人群密集程度的图像特征以不同的优化权重,有效地解决了因密集人群图像中密集人群、稀疏人群和背景噪音共同出现而扰乱密度图预测的问题。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010170236.5/2.html,转载请声明来源钻瓜专利网。