[发明专利]一种基于视听觉多模态的视频音源分离方法在审
| 申请号: | 202210093434.5 | 申请日: | 2022-01-26 |
| 公开(公告)号: | CN114446317A | 公开(公告)日: | 2022-05-06 |
| 发明(设计)人: | 刘金羽;冯瑞;张玥杰 | 申请(专利权)人: | 复旦大学 |
| 主分类号: | G10L21/028 | 分类号: | G10L21/028;G10L25/12;G10L25/18;G10L25/57;G06V20/40;G06V10/764;G06V10/82;G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 上海德昭知识产权代理有限公司 31204 | 代理人: | 程宗德 |
| 地址: | 200433 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 视听 觉多模态 视频 音源 分离 方法 | ||
1.一种基于视听觉多模态的视频音源分离方法,其特征在于,包括以下步骤:
步骤1,对视频的视觉信息和听觉信息进行特征提取,得到视觉标签和听觉特征;
步骤2,将所述视觉标签和所述听觉特征放入多实例多标签网络,得到听觉特征与视觉标签的关联值;
步骤3,将所述视频和所述关联值放入音源分离网络中,得到每一个对象的单独声音,
其中,步骤2中,所述多实例多标签网络的训练包括以下步骤:
步骤2-1,构建初始多实例多标签网络;
步骤2-2,将一个视频中所得到的所有音频特征向量作为训练集放入所述多实例多标签网络中训练,得到每个音频特征向量和所有视觉对象的关联特征图。
2.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:
其中,步骤1包括以下步骤:
步骤1-1,通过短时傅里叶变换先得到频谱图,再通过非负矩阵分解得到所有音频向量;
步骤1-2,通过ImageNet预训练的ResNet-152网络对视频帧中所出现的对象进行分类预测,得到每个对象对应某种分类的概率,保留概率值在所设定阈值之上的分类标签。
3.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:
其中,步骤2-2包括以下步骤:
步骤2-2-1,将所述训练集中的各个视频的音频向量依次输入所述多实体多标签模型进行一次迭代,得到所述多实体多标签模型的输出值;
步骤2-2-2,采用所述多实体多标签模型的输出值计算出多标签铰链损失并将误差反向传播更新参数;
步骤2-2-3,重复步骤2-2-2,直到正确分类的预测关联值比错误分类的差值大于阈值1,训练结束,得到多实体多标签模型网络。
4.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:
其中,步骤3包括以下步骤:
步骤3-1,将混合音频进行短时傅里叶变换得到频谱图;
步骤3-2,通过所述关联值,得到属于每一个对象的音频向量;
步骤3-3,通过逆短时傅里叶变换,以所述每一个对象的音频向量作为参照,生成每个对象的原始音频。
5.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:
其中所述多实体多标签模型包括依次设置的输入层、全连接层、归一化层、RELU、1x1卷积层、归一化层、RELU以及两个最大池化层。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于复旦大学,未经复旦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210093434.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:图片处理方法和装置
- 下一篇:复合树脂盖板生产装置





