[发明专利]一种基于视听觉多模态的视频音源分离方法在审

专利信息
申请号: 202210093434.5 申请日: 2022-01-26
公开(公告)号: CN114446317A 公开(公告)日: 2022-05-06
发明(设计)人: 刘金羽;冯瑞;张玥杰 申请(专利权)人: 复旦大学
主分类号: G10L21/028 分类号: G10L21/028;G10L25/12;G10L25/18;G10L25/57;G06V20/40;G06V10/764;G06V10/82;G06K9/00;G06K9/62;G06N3/04;G06N3/08
代理公司: 上海德昭知识产权代理有限公司 31204 代理人: 程宗德
地址: 200433 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 视听 觉多模态 视频 音源 分离 方法
【权利要求书】:

1.一种基于视听觉多模态的视频音源分离方法,其特征在于,包括以下步骤:

步骤1,对视频的视觉信息和听觉信息进行特征提取,得到视觉标签和听觉特征;

步骤2,将所述视觉标签和所述听觉特征放入多实例多标签网络,得到听觉特征与视觉标签的关联值;

步骤3,将所述视频和所述关联值放入音源分离网络中,得到每一个对象的单独声音,

其中,步骤2中,所述多实例多标签网络的训练包括以下步骤:

步骤2-1,构建初始多实例多标签网络;

步骤2-2,将一个视频中所得到的所有音频特征向量作为训练集放入所述多实例多标签网络中训练,得到每个音频特征向量和所有视觉对象的关联特征图。

2.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:

其中,步骤1包括以下步骤:

步骤1-1,通过短时傅里叶变换先得到频谱图,再通过非负矩阵分解得到所有音频向量;

步骤1-2,通过ImageNet预训练的ResNet-152网络对视频帧中所出现的对象进行分类预测,得到每个对象对应某种分类的概率,保留概率值在所设定阈值之上的分类标签。

3.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:

其中,步骤2-2包括以下步骤:

步骤2-2-1,将所述训练集中的各个视频的音频向量依次输入所述多实体多标签模型进行一次迭代,得到所述多实体多标签模型的输出值;

步骤2-2-2,采用所述多实体多标签模型的输出值计算出多标签铰链损失并将误差反向传播更新参数;

步骤2-2-3,重复步骤2-2-2,直到正确分类的预测关联值比错误分类的差值大于阈值1,训练结束,得到多实体多标签模型网络。

4.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:

其中,步骤3包括以下步骤:

步骤3-1,将混合音频进行短时傅里叶变换得到频谱图;

步骤3-2,通过所述关联值,得到属于每一个对象的音频向量;

步骤3-3,通过逆短时傅里叶变换,以所述每一个对象的音频向量作为参照,生成每个对象的原始音频。

5.根据权利要求1所述的基于视听觉多模态的视频音源分离方法,其特征在于:

其中所述多实体多标签模型包括依次设置的输入层、全连接层、归一化层、RELU、1x1卷积层、归一化层、RELU以及两个最大池化层。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于复旦大学,未经复旦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210093434.5/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top