[发明专利]一种基于形状相似度的人体姿态估计方法及系统在审
| 申请号: | 202210752411.0 | 申请日: | 2022-06-29 |
| 公开(公告)号: | CN115171155A | 公开(公告)日: | 2022-10-11 |
| 发明(设计)人: | 黄浩;魏龙生;喻学孚;赵雷;廖宇航 | 申请(专利权)人: | 中国地质大学(武汉) |
| 主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/82;G06V10/74;G06V10/44;G06V10/26;G06N3/04;G06N3/08 |
| 代理公司: | 武汉知产时代知识产权代理有限公司 42238 | 代理人: | 孔灿 |
| 地址: | 430000 湖*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 形状 相似 人体 姿态 估计 方法 系统 | ||
本发明提供了一种基于形状相似度的人体姿态估计方法及系统,该方法包括:对图像中的每个人体检测对象进行目标检测和粗定位;计算每个人体检测对象的置信度得分,并提出基于交并比IOU的加权函数;对每个人体检测对象的检测框进行归一化处理,并通过形状相似度权重函数调整重叠检测框的得分;对单人最大得分检测框中的单人图片进行裁剪,并提取裁剪后单人图片的特征图;对输入的特征图进行关键点提取得到单人关键点热图,同时输出单个通道的人体标签热点预测图;从单人关键点热图中生成第一粗糙候选关键点,通过固定的关键点检测阈值得到第二粗糙候选关键点,并用人体标签热点预测图来细化所述第二粗糙候选关键点,以得到最终人体姿态估计结果。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于形状相似度的人体姿态估计方法及系统。
背景技术
目前,随着深度学习技术的发展以及深度学习技术在姿态估计中的应用,现阶段对于单人姿态估计和稀疏场景下的多人姿态估计,已经达到了比较好的水平,而针对拥挤场景时的多人姿态估计,所面临的研究才刚刚开始。
现有基于深度学习的多人姿态估计算法主要是两阶段算法,两阶段算法分为关键点检测和关键点分组两个阶段。虽然现有两阶段的多人姿态估计算法在稀疏场景下取得了较好的效果,但当处于拥挤场景下时,精度会有显著下降。其原因在于拥挤场景下人与人之间经常出现严重重叠,会对检测产生显著干扰。
对于基于两阶段算法的两阶段方法则可以分为两类:自顶向下的方法和自底向上的方法。
对于自顶向下的方法来说,在人体检测阶段,由于人与人之间的距离太近,在使用现有非极大值抑制算法区分冗余框和目标框时,会导致邻近的目标框被错误抑制;同时在后续的关键点检测阶段,由于场景较为拥挤目标框内不可避免的混入其余人体,因此会对关键点检测产生高干扰。
对于自底向上的方法来说,在关键点检测阶段,由于图像中所包含人的数量未知,且拥挤场景导致关键点之间会互相干扰,因此如何能够从关键点热点图解码出较为精确的候选关键点集是一个尚未解决的难题;而在关键点分组阶段,由于拥挤场景中常常出现的遮挡情况,会导致部分关键点难以检测,从而对最后的分组带来困难。
自顶向下流程是当前最流行也是精度最高的多人姿态估计任务的解决方案。作为一种两阶段的方法,首先检测单个人所在的区域生成检测框,然后通过该检测框区域生成的热点图回归关键点坐标。
但是,在自上而下的方法中,在拥挤场景下单个人的检测框不可避免包含了其他人体,因此会出现无法避免的干扰问题。
以往的研究大多将深度神经网络作为一种强大的预测器,专注于改善网络结构以提高预测精度,但并没有从本质上真正解决这一问题。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于形状相似度的人体姿态估计方法及系统,通过基于形状相似度的非极大值的人体检测算法,进一步提高在拥挤场景下对人体姿态识别的精确度。
为解决上述问题,本发明的第一目的在于提供一种基于形状相似度的人体姿态估计方法,所述人体姿态估计方法包括:
S100:对图像中的每个人体检测对象进行目标检测,并对单人的边界框进行粗定位;
S200:计算每个人体检测对象的置信度得分,并提出基于交并比IOU的加权函数,以改变每个人体检测对象的检测框与最大得分检测框的交并比IOU大于人为设定阈值的置信度得分;
S300:对每个人体检测对象的检测框进行归一化处理,并通过形状相似度权重函数调整重叠检测框的得分,以得到所有人体检测对象中的单人最大得分检测框;
S400:对所述单人最大得分检测框中的单人图片进行裁剪,并通过CNN网络采样提取裁剪后单人图片的特征图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国地质大学(武汉),未经中国地质大学(武汉)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210752411.0/2.html,转载请声明来源钻瓜专利网。





