[发明专利]一种基于时空上下文学习的手部姿态估计方法在审
申请号: | 201911235772.2 | 申请日: | 2019-12-05 |
公开(公告)号: | CN111178142A | 公开(公告)日: | 2020-05-19 |
发明(设计)人: | 李玺;吴一鸣 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 傅朝栋;张法高 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 时空 上下文 学习 姿态 估计 方法 | ||
1.一种基于时空上下文学习的手部姿态估计方法,其特征在于,包括以下步骤:
S1、获取用于训练手部姿态估计的连续帧深度图像数据集;
S2、在空间以及时间维度上使用空间网络以及时间网络分别建模对应的上下文信息;
S3、根据输入图像使用融合网络为时间空间模型的输出进行融合;
S4、建立手部姿态估计的预测模型;
S5、使用所述的预测模型对连续帧深度图像进行手部姿态估计。
2.如权利要求1所述的基于时空上下文学习的手部姿态估计方法,其特征在于,步骤S1中,获取用于训练手部姿态估计的连续帧深度图像数据集,包括N个训练视频,每个训练视频中含有连续帧深度图像(X1,...,XT)train,以及预先标注的手部关节点位置(J1,...,JT)train。
3.如权利要求2所述的基于时空上下文学习的手部姿态估计方法,其特征在于,步骤S2中,在空间以及时间维度上使用空间网络以及时间网络分别建模对应的上下文信息具体包括:
S21、针对连续帧深度图像(X1,...,XT)train中的任意一帧深度图像,先将图像缩放到128×128尺寸,再对其随机旋转和翻转,最后进行归一化使其缩放到-1到1之间,最终得到归一化深度图像(I1,...,IT)train作为算法输入,随后按照深度值将归一化深度图像转换为128×128×8的三维体素表达(V1,...,VT)train后也作为算法输入,并对(J1,...,JT)train做与(X1,...,XT)train对应的旋转和翻转变换,得到
S22、为建模空间上下文信息,对任意一帧深度图像It以及三维体素表达Vt进行空间网络操作Fspatio(·),所述的空间网络操作中,对It以及Vt均使用每一层加入ReLU激活函数的三层卷积操作以及最大池化操作进行下采样,分别得到特征以及随后使用总层数为3的层级融合方法对两个特征进行融合,即:
m=1,2
其中:φm,t表示第m层的融合特征,以及为第m层的全连接函数,以及均为第m层的全连接层参数;再使用一个全连接操作回归手部关节点坐标
将以上空间网络操作形式化表达为:
其中:Fspatio(·)表示空间网络操作,Θspatio为空间网络中的参数;
S23、为建模时间上下文信息,对S21中得到的多帧深度图像(I1,...,IT)train,逐帧进行时间网络操作Ftemp(·),所述的时间网络操作中,先使用每一层加入ReLU激活函数的三层卷积操作以及最大池化操作进行下采样,得到特征(ψ1,...,ψT),其中深度图像It的特征ψt=H(It;θc),H(·)为卷积操作,θc为卷积参数;使用LSTM对得到的特征进行时间维度的关联建模,得到隐含层特征(h1,...,hT),t时刻的隐含层特征ht下式计算得到:
it=σ(Whi*ht-1+Wxi*ψt+bi)
ft=σ(Whf*ht-1+Wxf*ψt+bf)
ot=σ(Who*ht-1+Wxo*ψt+bt)
ct=(ft⊙ct-1)+(it⊙tanh(Whc*ht-1+Wxc*ψt+bc))
ht=ot⊙tanh(ct)
其中:it为t时刻输入门的输出,ft为t时刻的遗忘门的输出,ot为t时刻输出门的输出,ct为t时刻的最终记忆,Whi、Wxi、Whf、Wxf、Who、Wxo、Whc、Wxc均表示权重,bt、bf、bt、bc均表示偏置;*和⊙分别表示矩阵乘法和矩阵对应元素相乘操作,σ(·)表示sigmoid函数;再使用一个全连接操作对拼接的特征[ψt,ht]进行手部关节点坐标的回归;
将以上时间网络操作形式化表达为:
其中:Ftemp(·)表示时间网络操作,Θtemp为时间网络中参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911235772.2/1.html,转载请声明来源钻瓜专利网。