[发明专利]一种说话人分离方法、装置及电子设备在审
申请号: | 202111093768.4 | 申请日: | 2021-09-17 |
公开(公告)号: | CN114171050A | 公开(公告)日: | 2022-03-11 |
发明(设计)人: | 马驭飞;王强强 | 申请(专利权)人: | 作业帮教育科技(北京)有限公司 |
主分类号: | G10L21/0272 | 分类号: | G10L21/0272;G10L21/0308;G06K9/62 |
代理公司: | 北京清诚知识产权代理有限公司 11691 | 代理人: | 宋红艳 |
地址: | 100085 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 说话 分离 方法 装置 电子设备 | ||
本发明属于生物识别技术领域,提供一种说话人分离方法、装置及电子设备,所述方法包括:对待分离语音进行预处理,得到多个语音分段;从所述多个语音分段中提取特征数据,将所述特征数据输入基于指定计算机语言环境训练好的变分贝叶斯ivector模型中,得到所述待分离语音的分离结果。本发明从多个语音分段中提取各个语音分段的结束帧数,训练好的ivector模型能够根据各个语音分段的结束帧数将各个帧分至对应的状态,得到各个帧与各个状态的对应关系;将所述对应关系作用于各个帧的统计量和预分类结果中;从而保证将各个语音分段的分界处设为状态分界线;提高了说话人分离的效果。
技术领域
本发明属于生物识别技术领域,更具体的是涉及一种说话人分离方法、装置、电子设备及计算机可读介质。
背景技术
随着音频处理技术的不断提高,从海量的数据中,如电话录音、新闻广播、会议录音等,获取感兴趣的特定人声已成为研究热点。说话人分离技术是指从多人对话中自动地将语音依据说话人进行划分,并加以标记的过程,即解决的是“什么时候由谁说”的问题。
目前,有一种基于变分贝叶斯方法的说话人分离方法,将传统说话人分离结果作为预分离输入,在此基础上通过隐马尔可夫模型对各帧特征进行建模,从而成功从非常短的语音片段中稳健地估计说话人模型。该方法可以有效缩短说话人建模单元大小,实现从非常短的语音片段中稳健地估计说话人模型,从而可以应用于如学习规划顾问(LearningPlanning Consultant,LPC)等简短对话问答系统中。但是由于原有的变分贝叶斯算法中输入帧特征为非静音帧的简单拼接,降采样过程可能将不在同一个语音分段的帧合并到1个状态,最终输出可能会出现说话人分离边界与切分边界不符的现象,影响分离效果。
发明内容
(一)要解决的技术问题
本发明旨在解决原有的变分贝叶斯算法输入为非静音帧的简单拼接,影响分离效果的技术问题。
(二)技术方案
为解决上述技术问题,本发明的一方面提出一种说话人分离方法,所述方法包括如下步骤:
对待分离语音进行预处理,得到多个语音分段;
从所述多个语音分段中提取特征数据,所述特征数据包括:拼接特征矩阵,预分类结果,以及各个语音分段的结束帧数;
将所述特征数据输入基于指定计算机语言环境训练好的变分贝叶斯ivector模型中,所述变分贝叶斯模型根据拼接特征矩阵计算各个帧的统计量;根据各个语音分段的结束帧数将各个帧分至对应的状态,得到各个帧与各个状态的对应关系;将所述对应关系作用于各个帧的统计量和预分类结果中,得到各个状态的降采样结果;对各个状态的降采样结果进行前后迭代后,输出各个帧的语音标签,得到所述待分离语音的分离结果;其中,所述状态指预定个数个帧所在的时间片段中说话人的分布。
根据本发明一种优选的实施方式,所述根据各个语音分段的结束帧数将各个帧分至对应的状态,得到各个帧与各个状态的对应关系包括:
将第i帧分至状态i*segrange/seglen中,并根据各个帧与各个状态的对应关系生成关系矩阵;
其中:seglen为待分离语音包含的总帧数,segrange为各个语音分段包含的帧数除以预设每个状态包含的帧数取整。
根据本发明一种优选的实施方式,所述根据拼接特征矩阵计算各个帧的统计量包括:
计算各个帧各高斯分量的后验概率;
将各个帧各高斯分量的后验概率通过混合高斯模型向ivector空间投影矩阵进行投影,得到各个帧ivector分量的一阶统计量。
根据本发明一种优选的实施方式,所述根据拼接特征矩阵计算各个帧的统计量还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于作业帮教育科技(北京)有限公司,未经作业帮教育科技(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111093768.4/2.html,转载请声明来源钻瓜专利网。