[发明专利]一种基于注意力多分辨率网络的人体姿态估计方法及系统在审
申请号: | 202110271084.2 | 申请日: | 2021-03-12 |
公开(公告)号: | CN113011304A | 公开(公告)日: | 2021-06-22 |
发明(设计)人: | 常发亮;丁锐;李南君;蒋沁宇 | 申请(专利权)人: | 山东大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 董雪 |
地址: | 250061 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 注意力 分辨率 网络 人体 姿态 估计 方法 系统 | ||
本公开公开的一种基于注意力多分辨率网络的人体姿态估计方法及系统,包括:获取待识别的目标图像;将待识别的目标图像输入训练好的注意力多分辨率网络模型中,获取姿态估计结果;其中,注意力多分辨率网络模型包括快速采样阶段、网络主体部分和表征融合模块,快速采样阶段对输入的图像下采样并提取不同分辨率的表征信息,通过网络主体部分从不同分辨率的表征信息中提取分辨率支路特征,表征融合模块使用通道注意力机制,将不同分辨率支路特征加权融合,获得融合特征,通过该融合特征进行姿态估计。实现了对人体姿态的准确估计。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于注意力多分辨率网络的人体姿态估计方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
视觉系统是人类观察世界和认识世界最重要的途径,数据显示人类通过视觉获取的信息至少占总信息量的80%以上。长期以来,研究人员希望通过计算机模拟人类的视觉系统,从而使机器能够准确地对图像中的目标物体进行识别与定位,最终实现理解图像中隐含的高级语义信息。通过计算机视觉的方式分析人的行为动作能够极大提高人类生产生活的便捷性,对社会发展进步具有重要意义。人体姿态估计是通过定位人眼睛、颈部、手腕、膝盖等主要关键点位置,连接构建人体骨架模型的技术,在生活中的许多领域具有重要的实用意义。
例如在机器人领域,关于协作机器人的研究正迈入人机协作的新阶段。与通过安全围栏与人隔离的传统工业机器人相比,协作机器人可以和人类伙伴并肩协作,高效地完成某项或多项作业。人机协作系统的关键在于人机交互。顾名思义,人机交互是指人与机器产生交流和互动的行为,而人机交互的前提是机器人可以读懂人的语言、情感和行为意图等。除了传统的键盘和触控屏操作外,采用计算机视觉的方式识别人体姿态包含的信息,从而读懂人的行为能产生更便捷和更拟人化的交互方式,人体姿态估计的发展将为人与机器人的交流带来更多可能。
基于图像的人体姿态估计由于受到光照条件、相机拍摄角度以及复杂环境的影响,存在人体姿态变化多样、图像背景复杂、关键点遮挡不可见等问题,这导致长期以来人体姿态估计的研究结果不准确,无法满足实际应用的需要。直到近年来深度学习技术的发展,高性能的计算平台以及大规模数据集的增加使得神经网络模型可以更好地学习和泛化,人体姿态估计的性能才得到飞跃提高。由于不同分辨率特征包含不同尺度关节点信息,因此现有研究成果往往关注如何更好的提取多分辨率表征,而对于融合多分辨率表征则直接采用对应位置元素相加的方式,这导致不同分辨率支路通道信息重要性的差异被忽视,进而使人体姿态识别的准确率较低。
发明内容
本公开为了解决上述问题,提出了一种基于注意力多分辨率网络的人体姿态估计方法及系统。
为实现上述目的,本公开采用如下技术方案:
第一方面,提出了一种基于注意力多分辨率网络的人体姿态估计方法,包括:
获取待识别的目标图像;
将待识别的目标图像输入训练好的注意力多分辨率网络模型中,获取姿态估计结果;
其中,注意力多分辨率网络模型包括快速采样阶段、网络主体部分和表征融合模块,快速采样阶段对输入的图像下采样并提取不同分辨率表征,通过网络主体部分从不同分辨率表征中提取分辨率支路特征,表征融合模块使用通道注意力机制,将不同分辨率支路特征加权融合,获得融合特征,通过该融合特征进行姿态估计。
第二方面,提出了一种基于注意力多分辨率网络的人体姿态估计系统,包括:
图像获取模块,用于获取待识别的目标图像;
姿态估计模块,用于将待识别的目标图像输入训练好的注意力多分辨率网络模型中,获取姿态估计结果;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学,未经山东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110271084.2/2.html,转载请声明来源钻瓜专利网。