[发明专利]一种语音合成模型训练方法和相关装置在审
| 申请号: | 202010960441.1 | 申请日: | 2020-09-14 |
| 公开(公告)号: | CN112820265A | 公开(公告)日: | 2021-05-18 |
| 发明(设计)人: | 廖锡光 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
| 主分类号: | G10L13/02 | 分类号: | G10L13/02;G10L13/047;G10L17/00 |
| 代理公司: | 深圳市深佳知识产权代理事务所(普通合伙) 44285 | 代理人: | 王兆林 |
| 地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 语音 合成 模型 训练 方法 相关 装置 | ||
1.一种语音合成模型训练方法,其特征在于,所述方法包括:
收集音视频作品;
从所述音视频作品中提取与第一应答角色对应的音视频片段;
根据所述音视频片段识别所述第一应答角色对应的音频和所述音频对应的文本;
根据所述音频和所述音频对应的文本训练得到所述第一应答角色对应的语音合成模型。
2.根据权利要求1所述的方法,其特征在于,所述从所述音视频作品中提取与第一应答角色对应的音视频片段之前,所述方法还包括:
获取针对所述音视频作品的评论信息;
根据所述评论信息,从所述音视频作品中确定好评度大于预设阈值的角色为所述第一应答角色。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取用户输入的语音信息;
根据所述语音信息,确定与所述语音信息匹配的目标应答角色;
根据所述第一应答角色与所述语音合成模型之间的对应关系,确定所述目标应答角色对应的语音合成模型;
调用所述目标应答角色对应的语音合成模型,生成所述语音信息对应的应答语音。
4.根据权利要求3所述的方法,其特征在于,若训练得到的语音合成模型中不包括所述目标应答角色对应的语音合成模型,所述方法还包括:
将所述目标应答角色作为所述第一应答角色,重新执行从所述音视频作品中提取与第一应答角色对应的音视频片段的步骤,以更新训练得到的语音合成模型。
5.根据权利要求3所述的方法,其特征在于,所述获取用户输入的语音信息之前,所述方法还包括:
接收所述用户的自定义请求,所述自定义请求包括角色标识;
根据所述角色标识设置智能语音设备的应答角色。
6.根据权利要求5所述的方法,其特征在于,若所述智能语音设备的应答角色包括多个,所述自定义请求中包括所述用户的声纹信息,所述方法还包括:
根据所述角色标识和所述声纹信息建立所述声纹信息与应答角色的关联关系;
所述根据所述语音信息,确定与所述语音信息匹配的目标应答角色,包括:
根据所述语音信息进行声纹识别,得到声纹识别结果;
根据所述声纹识别结果和所述关联关系确定所述目标应答角色。
7.根据权利要求5所述的方法,其特征在于,所述自定义请求中还包括所述应答角色的属性信息,所述根据所述角色标识设置智能语音设备的应答角色,包括:
根据所述角色标识和所述属性信息,设置所述智能语音设备的应答角色和对应的角色属性。
8.根据权利要求7所述的方法,其特征在于,若所述智能语音设备的应答角色包括多个,所述属性信息包括角色昵称,所述方法还包括:
根据所述角色标识和所述角色昵称建立所述角色昵称与应答角色的关联关系;
所述根据所述语音信息,确定与所述语音信息匹配的目标应答角色,包括:
识别所述语音信息中所包括的角色昵称;
根据所述关联关系和所述语音信息中包括的角色昵称,确定所述目标应答角色。
9.一种语音合成模型训练装置,其特征在于,所述装置包括收集单元、提取单元、识别单元和训练单元:
所述收集单元,用于收集音视频作品;
所述提取单元,用于从所述音视频作品中提取与第一应答角色对应的音视频片段;
所述识别单元,用于根据所述音视频片段识别所述第一应答角色对应的音频和所述音频对应的文本;
所述训练单元,用于根据所述音频和所述音频对应的文本训练得到所述第一应答角色对应的语音合成模型。
10.一种用于语音合成模型训练的设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-8任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010960441.1/1.html,转载请声明来源钻瓜专利网。





