[发明专利]姿态识别方法、装置、处理器及电子设备在审
申请号: | 202210018387.8 | 申请日: | 2022-01-07 |
公开(公告)号: | CN114359550A | 公开(公告)日: | 2022-04-15 |
发明(设计)人: | 黄琼;暨光耀;郑洁科;张晓娜 | 申请(专利权)人: | 中国工商银行股份有限公司 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/764;G06V10/774;G06K9/62;G06N3/04;G06T7/70;G06T7/73;G06V40/10;G06V10/82 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 周春枚 |
地址: | 100140 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 姿态 识别 方法 装置 处理器 电子设备 | ||
1.一种姿态识别方法,其特征在于,包括:
采集目标图像;
检测所述目标图像中所包括的目标对象的姿态参数;
根据所述姿态参数确定所述目标图像中的所述目标对象的姿态。
2.根据权利要求1所述的方法,其特征在于,在检测所述目标图像中所包括的目标对象的姿态参数之前,所述方法还包括:
获取第一训练样本,其中,所述第一训练样本包括样本对象的第一图像,以及所述样本对象的标准姿态参数;
采用所述第一训练样本进行机器训练,得到检测模型,其中,所述检测模型为掩码区域卷积神经网络模型Mask RCNN。
3.根据权利要求2所述的方法,其特征在于,获取第一训练样本包括:
采集样本对象在目标环境的多个图像;
对采集的图像进行扩增处理,得到多个测试图像;
对所述多个测试图像的样本对象按照所述标准姿态参数进行标注,得到所述第一训练样本。
4.根据权利要求2所述的方法,其特征在于,检测所述目标图像中所包括的目标对象的姿态参数包括:
将所述目标图像输入所述检测模型;
通过所述检测模型,确定所述目标图像的感兴趣区域,所述感兴趣区域的类别,所述目标图像中目标对象区域的掩码,以及所述目标对象的关键点的坐标。
5.根据权利要求4所述的方法,其特征在于,通过所述检测模型的特征提取网络和区域建议网络,确定所述目标图像的感兴趣区域包括:
对所述目标图像进行特征提取,得到对应的特征图;
对所述特征图进行处理,得到多个候选区域;
从多个所述候选区域中选取得分最高的一个候选区域作为所述感兴趣区域。
6.根据权利要求4所述的方法,其特征在于,采用所述第一训练样本进行机器训练,得到检测模型包括:
将所述第一训练样本输入所述检测模型,得到所述第一训练样本的感兴趣区域,感兴趣区域的类别,样本对象区域的掩码和关键点坐标;
根据所述感兴趣区域,所述类别,所述掩码和所述关键点坐标与所述标准姿态参数,确定所述检测模型的损失值;
在所述损失值不超过预设值的情况下,确定所述检测模型训练成功。
7.根据权利要求6所述的方法,其特征在于,所述标准姿态参数包括:所述第一训练样本中的感兴趣区域的类别,中心坐标和尺寸,所述第一训练样本中的样本对象的掩码和关键点的坐标,根据所述感兴趣区域,所述类别,所述掩码和所述关键点坐标,与所述标准姿态参数,确定所述检测模型的损失值包括:
根据所述感兴趣区域的类别与所述第一训练样本中对应所述感兴趣区域的类别,确定分类误差;
根据所述感兴趣区域的中心坐标和尺寸,与所述第一训练样本的感兴趣区域的中心坐标和尺寸,确定坐标误差;
根据所述掩码的交并比和所述分类误差确定分割误差,其中,所述交并比为所述掩码和所述第一训练样本中样本对象的掩码的交并比;
根据多个关键点的预测坐标和所述第一训练样本中样本对象的关键点的坐标之间的欧氏距离,确定关键点误差;
根据所述分类误差,所述坐标误差,所述分割误差和所述关键点误差,以及各自对应的预设权重,确定所述损失值。
8.根据权利要求4中所述的方法,其特征在于,根据所述姿态参数确定所述目标图像中的所述目标对象的姿态之前,所述方法还包括:
获取第二训练样本,其中,所述第二训练样本包括标注有样本对象的标准姿态参数的第二图像,以及所述样本对象的姿态;
通过所述第二训练样本进行机器训练,得到分类模型,其中,所述分类模型包括但不限于:决策树分类模型,二分类模型。
9.根据权利要求8中所述的方法,其特征在于,根据所述姿态参数确定所述目标图像中的所述目标对象的姿态包括:
通过所述姿态参数对所述目标图像进行标注;
将标注后的目标图像输入所述分类模型,得到所述目标图像的目标对象对应的姿态。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国工商银行股份有限公司,未经中国工商银行股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210018387.8/1.html,转载请声明来源钻瓜专利网。