[发明专利]一种基于几何驱动的自监督人体3D姿态估计网络训练方法有效
| 申请号: | 201911301729.1 | 申请日: | 2019-12-17 |
| 公开(公告)号: | CN111062326B | 公开(公告)日: | 2023-07-25 |
| 发明(设计)人: | 李侃;李杨 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V10/774 |
| 代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 张利萍 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 几何 驱动 监督 人体 姿态 估计 网络 训练 方法 | ||
1.一种基于几何驱动的自监督人体3D姿态估计网络训练方法,其特征在于,包括以下步骤:
步骤1:采集人体姿态训练数据,构造训练数据集;
步骤2:对训练数据集中的人体2D关节点进行检测;
步骤3:设计一个人体3D姿态估计网络,将人体2D关节点位置投射到3D空间中,估计人体的相对3D姿态;
步骤3.1:设计一个3D姿态估计网络该网络包含四个残差模块,每个模块均由2个全连接层及其对应的批归一化层、整流线性单位层和池化层组成;最后,3D姿态估计网络连接了一个N×3通道的全连接层输出N个关节点的3D位置坐标;
步骤3.2:将步骤2中得到的人体2D关节点位置X1,X2输入到3D姿态估计网络中,得到网络输出为分别为Y1,Y2两张图片中人体N个关节点位置所对应的3D坐标;此处,网络输出的3D坐标,是以根关节点为坐标原点的相对位置坐标;
步骤4:设立一个根节点位置估计网络,估计出根关节点在对应相机坐标下的3D位置坐标,来还原人体关节点的3D绝对位置坐标;
步骤4.1:设计一个根节点位置估计网络该网络包含四个残差模块,每个模块均由2个全连接层及其对应的批归一化层、整流线性单位层和池化层组成;最后,网络连接了一个N通道的全连接层输出根关节点在对应相机坐标下的3D位置坐标;
步骤4.2:将步骤2中得到的人体2D关节点位置,输入到根节点位置估计网络中,得到网络输出为表示根关节点在两张图片对应视角v1,v2的相机坐标下的3D位置坐标;
步骤4.3:将rv1和rv2分别加到Y1,Y2上,还原出对应的人体3D关节点的绝对位置坐标和
步骤5:根据透视投影,将步骤4得到的人体3D关节点的绝对位置重投影到2D空间;
步骤6:进行相机坐标转换;
步骤7:计算重投影损失函数、变换重投影损失函数和预训练损失;
步骤7.1:计算重投影损失函数
计算步骤2检测得的人体2D关节点位置和步骤5重投影得到的人体2D关节点位置二者之间的平方损失,如下所示:
步骤7.2:计算变换重投影损失函数
计算步骤2检测得的人体2D关节点位置和步骤6变换后的人体3D关节点位置投影的到的2D位置之间的平方损失,如下所示:
步骤7.3:计算预训练损失
计算步骤4得到的人体3D关节点绝对位置和步骤6变换后的人体3D关节点位置之间的平方损失,如下所示:
步骤8:进行网络训练;
步骤9:使用训练好的3D姿态估计网络,对未知图片中的人体3D姿态进行估计。
2.如权利要求1所述的一种基于几何驱动的自监督人体3D姿态估计网络训练方法,其特征在于,步骤1构造训练数据集时,利用多个相机进行标定,记录相机的内参和外参,其中,对于场景中的同一个人,收集多个视角下相机拍摄的照片,构造训练数据集。
3.如权利要求1所述的一种基于几何驱动的自监督人体3D姿态估计网络训练方法,其特征在于,步骤2实现方法如下:
在检测人体2D关节点时,在步骤1构造的训练数据集中,从同一时刻多个视角拍摄的图片中,任意选取两张,使用层级金字塔网络,对两张图片中的人体2D关节点位置进行检测,定义分别为步骤2得到的两张图片中人体的N个关节点位置的2D坐标。
4.如权利要求1所述的一种基于几何驱动的自监督人体3D姿态估计网络训练方法,其特征在于,步骤5的实现方法为:
按照如下公式计算:
其中,ρ表示透视投影,fx和fy为相机焦距,cx和cy定义了主要点,分别表示的第ith个关节点位置的x,y,z坐标值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911301729.1/1.html,转载请声明来源钻瓜专利网。





