[发明专利]一种基于NMF算法的单传声器语音分离方法在审
申请号: | 201710137777.6 | 申请日: | 2017-03-09 |
公开(公告)号: | CN108573711A | 公开(公告)日: | 2018-09-25 |
发明(设计)人: | 李军锋;李煦;颜永红 | 申请(专利权)人: | 中国科学院声学研究所 |
主分类号: | G10L21/0272 | 分类号: | G10L21/0272;G10L21/0308;G10L25/27;G10L15/02;G10L15/06 |
代理公司: | 北京方安思达知识产权代理有限公司 11472 | 代理人: | 王宇杨;陈琳琳 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 算法 矩阵 字典 语音 传声器 时间连续性 分离效果 结构信息 训练数据 语音幅度 语音信号 语音信息 状态序列 传统的 鲁棒性 帧混合 | ||
本发明提供了一种基于NMF算法的单传声器语音分离方法,该方法针对每个说话人的训练数据得到很多较小的字典矩阵和一个状态序列,以此来同时描述语音信号的谱结构信息和时间连续性;针对不同帧混合语音,相比于传统的算法采用了较大的字典矩阵而言,由于本发明的算法采用了不同的较小的字典矩阵来描述各帧语音幅度谱,避免了一个说话人的字典描述出另一个说话人的语音信息的现象发生,提高了算法的鲁棒性和语音分离效果。
技术领域
本发明涉及语音分离技术领域,具体涉及一种基于NMF算法的单传声器语音分离方法。
背景技术
在很多应用场景中(如自动语音识别,语音通信),语音信号不可避免地受到周围干扰的影响,而在各类干扰中,非目标说话人产生的干扰由于其和目标语音有相似的频谱结构,使其更加难以去除,因此需要对这类干扰噪声专门设计算法进行处理。而且很多听力设备(或仪器)通常只有一个传声器来拾取语音信号,算法需要从一个混合语音中分离出两个说话人语音信号,这是一个欠定问题,进一步增加了问题的解决难度。
近年来,多种算法已经被提出来解决单传声器语音分离问题,如基于因子隐Markov模型(factorial hidden Markov model,FHMM)的分离算法,基于非负矩阵分解(non-negative matrix factorization,NMF)的语音分离算法以及基于计算听觉场景分析(computational auditory scene analysis,CASA)的分离算法。在这些算法中,基于NMF算法由于分离效果显著,而且运算简单而得到了广泛关注。具体而言,首先针对两个说话人训练数据通过非负矩阵分解得到对应的字典,然后再将这两个说话人混合测试语音分解为字典矩阵和权重矩阵的乘积,最后将每个说话人字典和其对应的权重矩阵相乘重构出分离后的语音信号。然而,这种方法也存在一些问题,如该算法假设语音信号的相邻帧之间是相互独立的,不能对语音信号的时间连续性建模,而且该算法对每个说话人都采用一个较大字典建模,导致一个说话人的字典可能描述出另一个说话人的语音信号,从而难以进行语音分离。
发明内容
本发明的目的在于,为了克服传统的基于NMF分离算法无法对语音信号时间连续性建模的限制,提出了一种新的基于NMF算法和因子条件随机场(factorial conditionalrandom field,FCRF)的单传声器语音分离方法,该方法能够同时对语音信号的谱结构信息和时间连续性信息建模,提高了语音分离效果。
为实现上述目的,本发明提供的一种基于NMF算法的单传声器语音分离方法,该方法具体包括:
步骤1)针对两个说话人单独采集各自对应的语音信号;
步骤2)对步骤1)中采集到的语音信号进行预处理,然后提取语音信号的幅度谱;
步骤3)对每个说话人对应的语音信号幅度谱进行k均值聚类和非负矩阵分解,得到两个说话人对应的字典矩阵和状态序列;;
步骤4)通过步骤3)中得到的两个说话人对应的字典矩阵和状态序列训练FCRF模型;
步骤5)对两个说话人的混合语音信号进行特征提取,然后将提取的特征送入经过训练的FCRF模型中进行解码,得到两个说话人状态的后验概率;
步骤6)利用步骤5)中得到的后验概率和步骤3)中得到的字典矩阵重构两个说话人的语音信号。
作为上述技术方案的进一步改进,所述步骤2)具体包括:
步骤201)对每一帧语音信号补零到N点,M=2i,i为整数,且i≥8;
步骤202)对每一帧的语音信号进行加窗或预加重处理;
步骤203)将步骤202)处理后的语音信号通过快速傅里叶变换算法提取语音信号的幅度谱。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院声学研究所,未经中国科学院声学研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710137777.6/2.html,转载请声明来源钻瓜专利网。