[发明专利]一种基于深度哈希学习的运动检索方法在审
申请号: | 201910825950.0 | 申请日: | 2019-09-03 |
公开(公告)号: | CN112446263A | 公开(公告)日: | 2021-03-05 |
发明(设计)人: | 姚亮;梅嘉琳;王汉;李奇;何丽君;苏智勇 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08;G06F16/583 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 薛云燕 |
地址: | 210094 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 运动 检索 方法 | ||
本发明公开了一种基于深度哈希学习的运动检索方法。该方法包括以下步骤:获取运动序列数据集,对骨架进行归一化处理;建立双流递归神经网络模型,提取运动序列特征;在特征向量提取层之后加入哈希层,得到运动序列的二进制哈希码,通过损失层计算量化损失,使用反向传播算法在目标领域上调整模型的参数,优化整体目标;根据给定的查询运动序列,检索出运动库中的运动序列。本发明基于深度哈希学习的运动序列检索方法能够自动的从深度框架中获取语义的特征,且泛化性更好,提取出的特征具有语义性;其次从传统欧式空间转化到汉明空间,利用汉明距离由小到大进行排序,能够在大规模数据集中减少运动检索时间、提高检索精度。
技术领域
本发明涉及模式识别和机器视觉技术领域,特别是一种基于深度哈希学习的运动检索方法。
背景技术
近年来运动捕捉数据在电脑动画、影视特技制作、游戏娱乐、智能人机交互、辅助体育训练等多个领域都有着巨大的市场需求,计算机动画在人体运动中的应用尤其令人感兴趣。然而,随着运动数据种类的增加和运动风格的多变,寻找满足特定需求的运动捕捉方法成为了一件困难的事情。根据特征属性不同,运动检索方法主要分为以下几类:
基于动态时间翘曲(DTW)的方法,该方法是从现有的音频检索方法扩展而来,用基于姿态的索引来确定候选运动片段的起始和结束帧,再用DTW计算输入运动片段和每个候选运动片段的相似性,该方法对姿态的不同位置和朝向能较好免疫。由于对于较大的运动片段而言DTW是一个相当费时的操作,所以使用DTW的运动检索方法效率较低。为了提高DTW的检索效率,通常采用降维的方法,然而对于同时包含局部和全局差异的运动,计算成本还是相当高。
基于逻辑相似性的检索方法,常用的方法有:建立描述运动的模板,检索基于模板匹配;利用几何特征基于分割聚类自动构建索引树,运动匹配基于峰值点;基于四元素描述和卡尔曼滤波,可以将原始的肢体姿态和关节状态特征转化为更好的识别特征;基于图模型学习和推理的运动描述,能够完整的表示运动,具有较好的检索能力。
2018年,吕娜等(Na Lv,Zifei Jiang,Yan Huang,Xiangxu Meng,et al.GenericContent-Based Retrieval of Marker-Based Motion Capture Data[C]//IEEETRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS.2018)在文献中提出了基于标记的运动捕捉数据的通用内容检索,该方案提出了一种新颖的运动特征来统计运动捕获序列的高、低层次形态和运动特征,并通过计算和排序运动特征之间的运动特征距离来进行基于内容的检索。但这种方法针对大规模的数据集,由于是在原始的特征空间上进行计算的,运算过程复杂,对于时间性能来说有所限制。
发明内容
本发明的目的在于提供一种运行效率高、精确度高、适应性强的运动检索方法。
实现本发明的技术解决方案为:一种基于深度哈希学习的运动检索方法,包括以下步骤:
步骤1、获取运动序列数据集,对骨架进行归一化处理;
步骤2、建立双流递归神经网络模型,提取运动序列特征;
步骤3、在特征向量提取层之后加入哈希层,得到运动序列的二进制哈希码,通过损失层计算量化损失,使用反向传播算法在目标领域上调整模型的参数,优化整体目标;
步骤4、根据给定的查询运动序列,检索出运动库中的运动序列。
进一步地,步骤1所述的获取运动序列数据集,对骨架进行归一化处理,具体如下:
步骤1.1、下载CMU运动序列数据集;
步骤1.2、对CMU运动序列数据集中的骨架进行归一化处理,包括骨架长度归一化、骨架位移和角度的归一化,具体如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910825950.0/2.html,转载请声明来源钻瓜专利网。