[发明专利]基于视频的姿态数据捕捉方法和系统在审
申请号: | 201810895934.4 | 申请日: | 2018-08-08 |
公开(公告)号: | CN109145788A | 公开(公告)日: | 2019-01-04 |
发明(设计)人: | 陈敏 | 申请(专利权)人: | 北京云舶在线科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06T7/246;G06T13/20 |
代理公司: | 北京君慧知识产权代理事务所(普通合伙) 11716 | 代理人: | 王素花 |
地址: | 100102 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 标记点 捕捉 三维坐标数据 姿态数据 二维坐标数据 神经网络模型 视频数据分解 局部坐标系 视频 三维空间 对象运动 视频数据 位置数据 姿态动作 预设 申请 图片 | ||
1.一种基于视频的姿态数据捕捉方法,其特征在于,所述方法包括如下步骤:
获取视频数据,其中,所述视频数据包含待捕捉对象运动的姿态动作数据;
将所述视频数据分解为至少一张图片;其中,每张图片对应所述视频数据的一帧图像;
基于第一神经网络模型,提取所述视频数据分解得到的每张图片中包含的待捕捉对象身上至少一个标记点的二维坐标数据;
基于第二神经网络模型,根据所述视频数据分解得到的每张图片中包含的待捕捉对象身上每个标记点的二维坐标数据,确定所述每个标记点在局部坐标系中对应的三维坐标数据,其中,所述局部坐标系是以所述待捕捉对象的质心确定的坐标系;
通过如下公式,基于所述待捕捉对象身上每个标记点在所述至少一张图片上的位置数据,根据所述每个标记点在局部坐标系中对应的三维坐标数据,确定所述待捕捉对象身上每个标记点在预设三维空间内对应的三维坐标数据:
其中,z是待捕捉对象在预设三维空间的近似深度,是所述第二神经网络模型输出的标记点坐标信息;是所述第二神经网络模型输出的所有标记点坐标信息的平均值;Ki是所述第一神经网络模型输出的标记点坐标信息;是第一神经网络模型输出的所有标记点坐标信息的平均值。
2.根据权利要求1所述的一种基于视频的姿态数据捕捉方法,其特征在于,基于第一神经网络模型,提取所述视频数据分解得到的每张图片中包含的待捕捉对象身上至少一个标记点的二维坐标数据,包括:
将所述视频数据分解得到的每张图片输入第一神经网络模型,输出所述每张图片对应的至少一张置信图,其中,每张置信图中亮度最大的像素点的坐标对应待捕捉对象身上一个标记点的坐标;
根据所述每张图片对应的至少一张置信图,确定每张图片中包含的待捕捉对象身上至少一个标记点在每张图片中的二维坐标数据。
3.根据权利要求2所述的一种基于视频的姿态数据捕捉方法,其特征在于,在将所述视频数据分解得到的每张图片输入第一神经网络模型,输出所述每张图片对应的至少一张置信图之前,所述方法还包括:
获取图片样本库;其中,所述图片样本库包含多张样本图片;
标注所述图片样本库中每张样本图片包含的待捕捉对象身上的至少一个标记点;
使用所述图片样本库中的多张样本图片和样本图片上标注的至少一个标记点,通过机器学习训练得到所述第一神经网络模型。
4.根据权利要求2所述的一种基于视频的姿态数据捕捉方法,其特征在于,根据所述每张图片对应的至少一张置信图,确定每张图片中包含的待捕捉对象身上至少一个标记点在每张图片中的二维坐标数据,包括:
通过如下高斯响应图公式,确定每张置信图对应的标记点的二维坐标:
其中,G(x,y)表示每张置信图上像素点的高斯分布;σ表示高斯分布的标准偏差,(x,y)表示每张置信图上每个像素点的坐标。
5.根据权利要求3所述的一种基于视频的姿态数据捕捉方法,其特征在于,使用所述图片样本库中的多张样本图片和样本图片上标注的至少一个标记点,通过机器学习训练得到所述第一神经网络模型,包括:
基于如下目标函数训练所述第一神经网络模型:
其中,E表示目标函数,H′j(x,y)是预测的样本图片上每个标记点的坐标,Hj(x,y)是样本图片标注的标记点的坐标,N表示训练样本的个数,j为自然数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京云舶在线科技有限公司,未经北京云舶在线科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810895934.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:检测皮肤水分的方法、装置及终端
- 下一篇:供电系统安全作业保障方法及系统