[发明专利]音频特征提取模型的训练方法、音频识别方法及相关设备在审
申请号: | 202110682612.3 | 申请日: | 2021-06-18 |
公开(公告)号: | CN113421574A | 公开(公告)日: | 2021-09-21 |
发明(设计)人: | 胡诗超 | 申请(专利权)人: | 腾讯音乐娱乐科技(深圳)有限公司 |
主分类号: | G10L17/04 | 分类号: | G10L17/04;G10L17/18;G10L17/02;G10L17/26;G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 熊永强;杜维 |
地址: | 518000 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 音频 特征 提取 模型 训练 方法 识别 相关 设备 | ||
本申请实施例提供了一种音频特征提取模型的训练方法、音频识别方法及相关设备,该训练方法包括:获取训练数据集,该训练数据集包括多个参考用户的音频数据,对该多个参考用户的音频数据进行预处理,得到该多个参考用户的音频频谱图,根据该多个参考用户的音频频谱图生成多个批处理数据,每个该批处理数据包括由N个参考用户中每个参考用户的M个单位频谱数据组成的频谱特征矩阵,利用批处理数据对神经网络进行训练,得到N个参考用户的特征向量,直到根据该N个参考用户的特征向量确定神经网络的损失函数收敛时,得到音频特征提取模型,可以高效地训练得到音频特征提取模型,以提高提取用户声音特征时的准确度。
技术领域
本申请涉及计算机技术领域,尤其涉及一种音频特征提取模型的训练方法、音频识别方法及相关设备。
背景技术
目前,对说话人识别或者对歌声识别通常使用的是传统声纹提取技术,主要依靠使用传统的机器学习算法(例如高斯混合模型(Gaussian Mixture Model,GMM)、因子分析(Joint Factor Analysis,JFA)、i-vector等)对声音信号进行建模,继而提取与说话人或者唱歌人身份相关的信息再进行匹配。然而,使用以上传统建模的方法难以很好地对音频特征特别是说话人相关的特征做模型训练,从而难以准确提取与说话人相关的特征。
发明内容
本申请实施例提供一种音频特征提取模型的训练方法、音频识别方法及相关设备,可以高效地训练得到音频特征提取模型,以提高提取用户声音特征时的准确度。
一方面,本申请实施例提供了一种音频特征提取模型的训练方法,所述方法包括:
获取训练数据集,所述训练数据集包括多个参考用户的音频数据。
对所述多个参考用户的音频数据进行预处理,得到所述多个参考用户的音频频谱图。
根据所述多个参考用户的音频频谱图生成多个批处理数据,每个所述批处理数据包括由N个参考用户中每个参考用户的M个单位频谱数据组成的频谱特征矩阵,所述N和所述M均为大于0的整数。
利用所述批处理数据对神经网络进行训练,得到所述N个参考用户的特征向量,直到根据所述N个参考用户的特征向量确定所述神经网络的损失函数收敛时,得到音频特征提取模型。
另一方面,本申请实施例提供了一种音频识别方法,所述方法包括:
获取待识别用户的音频数据。
将所述音频数据输入上述的音频特征提取模型,得到所述待识别用户的第一特征向量。
从用户特征库中确定与所述第一特征向量匹配的第二特征向量,所述用户特征库包括至少一个参考用户的特征向量。
根据所述第二特征向量对应的参考用户确定所述待识别用户的音频特征信息。
又一方面,本申请实施例提供了一种音频特征提取模型的训练装置,所述装置包括:
获取模块,用于获取训练数据集,所述训练数据集包括多个参考用户的音频数据。
处理模块,用于对所述多个参考用户的音频数据进行预处理,得到所述多个参考用户的音频频谱图。
所述处理模块,还用于根据所述多个参考用户的音频频谱图生成多个批处理数据,每个所述批处理数据包括由N个参考用户中每个参考用户的M个单位频谱数据组成的频谱特征矩阵,所述N和所述M均为大于0的整数。
训练模块,用于利用所述批处理数据对神经网络进行训练,得到所述N个参考用户的特征向量,直到根据所述N个参考用户的特征向量确定所述神经网络的损失函数收敛时,得到音频特征提取模型。
又一方面,本申请实施例提供了一种音频识别装置,所述装置包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯音乐娱乐科技(深圳)有限公司,未经腾讯音乐娱乐科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110682612.3/2.html,转载请声明来源钻瓜专利网。