[发明专利]一种基于多模态融合的动作识别方法及系统在审
申请号: | 202210960093.7 | 申请日: | 2022-08-11 |
公开(公告)号: | CN115205979A | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 李泽超;潘礼勇 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V10/40;G06V10/82;G06V10/80;G06V40/70;G06K9/62;G06V10/764;G06N3/04;G10L25/18;G10L25/45 |
代理公司: | 北京高沃律师事务所 11569 | 代理人: | 韩雪梅 |
地址: | 210094 江苏省南*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 多模态 融合 动作 识别 方法 系统 | ||
1.一种基于多模态融合的动作识别方法,其特征在于,包括:
从动作视频中提取视觉模态数据和听觉模态数据;
对所述视觉模态数据和所述听觉模态数据进行预处理,得到视觉模态浅层Token序列和听觉模态浅层Token序列;
将所述视觉模态浅层Token序列输入至视觉特征提取网络中,得到视觉模态深度Token序列;
将所述听觉模态浅层Token序列输入至听觉特征提取网络中,得到听觉模态深度Token序列;
将所述视觉模态深度Token序列和所述听觉模态深度Token序列合并,得到合并后的Token序列;
将所述合并后的Token序列输入至特征融合网络,得到融合交互后的Token序列;
将所述融合交互后的Token序列输入至全连接层,得到动作分类结果。
2.根据权利要求1所述的基于多模态融合的动作识别方法,其特征在于,从动作视频中提取视觉模态数据和听觉模态数据,具体包括:
将所述动作视频划分为多个部分;
从每个部分中随机提取1帧RGB图像,得到视觉模态数据;
从每个部分中提取设定长度的音频;
从所述音频中提取设定频率维度的频谱图,得到听觉模态数据。
3.根据权利要求1所述的基于多模态融合的动作识别方法,其特征在于,对所述视觉模态数据和所述听觉模态数据进行预处理,具体包括:
将所述视觉模态数据和所述听觉模态数据均划分为多个图像块,得到视觉模态图像块和听觉模态图像块;
将每个视觉模态图像块和每个听觉模态图像块拉平成为一维向量,得到视觉模态Token和听觉模态Token;
对所述视觉模态Token和所述听觉模态Token进行一次线性变化,得到视觉模态初始Token序列和听觉模态初始Token序列;
将可学习的变量作为位置信息分别添加到所述视觉模态初始Token序列和所述听觉模态初始Token序列中,得到视觉模态浅层Token序列和听觉模态浅层Token序列。
4.根据权利要求1所述的基于多模态融合的动作识别方法,其特征在于,在将所述视觉模态浅层Token序列输入至视觉特征提取网络中,以及将所述听觉模态浅层Token序列输入至听觉特征提取网络中之前,还包括;
分别在所述视觉模态浅层Token序列以及所述听觉模态浅层Token序列前设置一个分类向量,并将所述分类向量进行移动。
5.根据权利要求4所述的基于多模态融合的动作识别方法,其特征在于,将所述合并后的Token序列输入至特征融合网络,得到融合交互后的Token序列,具体包括:
将所述视觉模态深度Token序列中的分类向量进行合并以及将所述视觉模态深度Token序列中分类向量以外的部分进行合并,得到合并后的视觉模态深度Token序列;
将所述听觉模态深度Token序列中的分类向量进行合并以及将所述听觉模态深度Token序列中分类向量以外的部分进行合并,得到合并后的听觉模态深度Token序列;
将所述合并后的视觉模态深度Token序列以及所述合并后的听觉模态深度Token序列,进行合并得到合并后的Token序列。
6.根据权利要求1所述的基于多模态融合的动作识别方法,其特征在于,所述特征融合网络中包括Token选择模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210960093.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种土木工程用工地降尘装置
- 下一篇:一种离壁式内衬侧墙台车及其施工方法