[发明专利]多人对话语音实时翻译方法、装置、设备及存储介质在审
申请号: | 202110835277.6 | 申请日: | 2021-07-23 |
公开(公告)号: | CN113505612A | 公开(公告)日: | 2021-10-15 |
发明(设计)人: | 卢春曦;王健宗 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/289;G06K9/62;G06N3/04;G06N3/08;G10L15/00;G10L15/06;G10L15/16;G10L15/26;G10L21/0272 |
代理公司: | 深圳市世联合知识产权代理有限公司 44385 | 代理人: | 汪琳琳 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 对话 语音 实时 翻译 方法 装置 设备 存储 介质 | ||
1.一种多人对话语音实时翻译方法,其特征在于,包括下述步骤:
接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数;
将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;
将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;
将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
2.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,所述将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频的步骤之前还包括:
获取训练样本,所述训练样本为混合了N个人声真实音频的对话语音;
将所述训练样本输入到预设的卷积神经网络模型中,获得所述卷积神经网络模型响应所述训练样本预测的N个人声预测音频;
调整所述卷积神经网络模型各节点的参数,至所述N个人声预测音频与所述N个人声真实音频之间的信噪比达到最大值时结束,得到训练好的语音分离模型。
3.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,所述预设的翻译引擎为M个,且每个翻译引擎对应不同的目标语种,所述将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果的步骤具体包括:
获取所述子音频的翻译目标语种;
根据所述翻译目标语种匹配与所述翻译目标语种对应的翻译引擎;
将所述子音频对应的文本输入到所述翻译引擎中进行翻译,得到所述子音频对应的目标语言翻译结果。
4.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,当所述目标语言翻译结果为文本时,在所述将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果的步骤之后,还包括:
将所述目标语言翻译结果输入到预设的文字-语音转换模型中进行语音转换,获得所述目标语言翻译结果的音频输出。
5.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,在所述将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本的步骤之后还包括:
将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本;
将所述校正后的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
6.根据权利要求5所述的多人对话语音实时翻译方法,其特征在于,在所述将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本的步骤中,具体包括:
将所述子音频对应的文本进行分词,得到分词结果;
将所述分词结果根据预设的规则组成短文本;
计算所述短文本与预设的语料库中各文本的编辑距离;
用所述语料库中与所述短文本之间编辑距离最小的文本替换所述短文本,得到校正后的文本。
7.一种多人对话语音实时翻译装置,其特征在于,包括:
接收模块,用于接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数;
分离模块,用于将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;
识别模块,用于将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;
翻译模块,用于将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110835277.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种链式多功能扳手
- 下一篇:一种深基坑预警的处理方法