[发明专利]面向手物交互场景的位姿估计方法和装置在审
| 申请号: | 202211215819.0 | 申请日: | 2022-09-30 |
| 公开(公告)号: | CN115620336A | 公开(公告)日: | 2023-01-17 |
| 发明(设计)人: | 穆太江;宋浩轩 | 申请(专利权)人: | 清华大学 |
| 主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V40/20;G06V10/82;G06T7/73 |
| 代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 杨小庆 |
| 地址: | 100084 北京市海淀区双清路*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 面向 交互 场景 估计 方法 装置 | ||
1.一种面向手物交互场景的位姿估计方法,其特征在于,所述方法包括:
对目标手物交互图像进行回归学习,得到人手与物体的初始交互位势;
利用所述初始交互位势和所述目标手物交互图像,估计交互过程中人手与物体的接触信息;
从所述目标手物交互图像中提取高阶二维特征;
根据所述接触信息和所述高阶二维特征优化所述初始交互位势,得到人手与物体的交互位势;
其中,所述高阶二维特征,用于约束所述目标手物交互图像中人手与物体的空间范围。
2.根据权利要求1所述的面向手物交互场景的位姿估计方法,其特征在于,所述对目标手物交互图像进行回归学习,得到人手与物体的初始交互位势,包括:
将目标手物交互图像输入预先构建的位势估计网络,回归得到物体模型的六维位姿以及MANO人手模型的位姿参数、形状参数和腕部根节点六维位姿参数;
利用MANO人手模型的位姿参数、形状参数、腕部根节点六维位姿参数和标准3D手部网络,构建MANO人手模型;
利用物体模型的六维位姿和形状,构建物体模型;
以所述MANO人手模型和所述物体模型来表示人手与物体的初始交互位势。
3.根据权利要求2所述的面向手物交互场景的位姿估计方法,其特征在于,所述接触信息至少包括:
所述物体模型每一个顶点与所述MANO人手模型是否接触;
与所述MANO人手模型接触的顶点对应的接触强度;
与所述MANO人手模型接触的顶点对应的接触部分位于所述MANO人手模型的区域。
4.根据权利要求1~3任一项所述的面向手物交互场景的位姿估计方法,其特征在于,所述从所述目标手物交互图像中提取高阶二维特征,包括:
将所述目标手物交互图像输入预先构建的高阶二维特征提取网络中,得到所述高阶二维特征;
其中,所述高阶二维特征包括:第一分割掩码特征图、第二分割掩码特征图、第一稠密映射特征图、第二稠密映射特征图和相对深度特征图;
所述第一分割掩码特征图,表征所述目标手物交互图像中每一个像素属于物体的概率值;
所述第二分割掩码特征图,表征所述目标手物交互图像中每一个像素属于人手的概率值;
所述第一稠密映射特征图,表征所述目标手物交互图像中每一个像素的映射点在物体稠密特征空间中的稠密特征;
所述第二稠密映射特征图,表征所述目标手物交互图像中每一个像素的映射点在人手稠密特征空间中的稠密特征;
所述相对深度特征图,表征所述目标手物交互图像中每一个像素的映射点相对于物体中心点的深度。
5.根据权利要求4所述的面向手物交互场景的位姿估计方法,其特征在于,所述根据所述接触信息和所述高阶二维特征优化所述初始交互位势,得到人手与物体的交互位势,包括:
基于所述物体模型、所述MANO人手模型、所述第一分割掩码特征图和所述第二分割掩码特征图,计算分割掩码估计误差;
基于所述物体模型、所述MANO人手模型和所述相对深度特征图,计算相对深度估计误差;
基于所述物体模型、所述MANO人手模型、所述第一稠密映射特征图、所述第二稠密映射特征图,计算稠密映射估计误差;
基于所述物体模型、所述MANO人手模型、所述第一稠密映射特征图、所述第二稠密映射特征图和所述相对深度特征图,计算稠密映射-相对深度联合估计误差;
以所述接触信息对应的估计误差、正则项、分割掩码估计误差、相对深度估计误差、稠密映射估计误差和稠密映射-相对深度联合估计误差的加和为优化损失,迭代优化所述初始交互位势,得到人手与物体的交互位势;
其中,所述正则项,为优化后人手与物体的交互位势和所述初始交互位势之间的距离。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211215819.0/1.html,转载请声明来源钻瓜专利网。





