[发明专利]一种基于时延神经网络TDNN的声纹识别方法在审
| 申请号: | 201910323405.1 | 申请日: | 2019-04-22 |
| 公开(公告)号: | CN110120223A | 公开(公告)日: | 2019-08-13 |
| 发明(设计)人: | 司马华鹏;唐翠翠 | 申请(专利权)人: | 南京硅基智能科技有限公司 |
| 主分类号: | G10L17/18 | 分类号: | G10L17/18;G10L17/02;G10L17/04 |
| 代理公司: | 江苏舜点律师事务所 32319 | 代理人: | 徐旭栋 |
| 地址: | 210012 江苏省*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 时延神经网络 声纹识别 特征向量 语音段 技术方案要点 声纹识别算法 转录 后验概率 神经网络 损失函数 特征提取 训练数据 交叉熵 池化 | ||
本发明公开了一种基于时延神经网络TDNN的声纹识别方法,解决了声纹识别算法复杂、数据庞杂的问题,其技术方案要点是基于神经网络极强的特征提取能力,本公开使用时延神经网络TDNN提取说话人语音段的特征向量,再经过池化层和softmax层获取说话人语音段的后验概率,并通过损失函数进行训练得到交叉熵,训练完成后去掉softmax层得到最终用于训练PLDA模型的特征向量,不需要转录训练数据,且计算简单,有较好的识别效果。
技术领域
本公开涉及一种声纹识别方法,尤其涉及一种基于时延神经网络TDNN的声纹识别方法。
背景技术
利用数据增强技术提高了深度神经网络(DNN)嵌入语音识别的性能,DNN被训练来区分说话者,它将可变长度的话语映射到固定维度的嵌入中,我们称之为x-vector。之前的研究已经发现嵌入比i-vector能更好地利用大规模训练数据集,然而,为培训收集大量的标记数据具有挑战性。使用由附加噪声和混响组成的数据增强作为一种廉价的方法来增加训练数据的数量并提高鲁棒性。将x-vector和NIST SRE 2016粤语使用者的i-vector基线进行比较,我们发现,虽然扩增在概率线性判别分析(PLDA)分类器中是有益的,但在i-vector提取器中是无益的。
大多数说话人识别系统都是基于i-vector的,该标准方法由一个通用背景模型(universal background model,UBM)和一个大型投影矩阵T组成。投影将来自UBM的高维统计信息映射为低维表示,即i-vector,采用PLDA分类器对i-vector进行比较,实现同说话人或不同说话人的决策。
说话人识别中DNN常被用来训练作为声学模型,在i-vectorUBM中用来增强声学模:要么使用DNN的后验概率代替高斯模型(GMM)的后验概率,要么提取DNN的瓶颈特征与声学特征相结合使用。在这两张情况下,如果DNN在域内数据上进行训练,相对于传统的i-vector声学的改进是显著的,但是其相比于传统的i-vectors模型是需要大量的训练数据,且计算复杂性也大大增加。
发明内容
本公开的目的是提供一种基于时延神经网络TDNN的声纹识别方法,达到声音识别更精确的效果,本公开提供了以下技术方案:
一种基于时延神经网络TDNN的声纹识别方法,包括以下步骤:(1)收集说话人语音段X1、X2、...XT,向TDNN中输入说话人语音段X1、X2、...XT,T为正整数,TDNN每次取任意帧数;
(2)池化层将TDNN语音段的每个输出向量集合,获取所述集合的均值和标准差作为所述池化层输出的特征向量P;
(3)所述池化层之后连接至少两层全连接层,所述全连接层之后为softmax层,所述特征向量P输入到所述全连接层集合后再输入至softmax层,softmax层的输出为每个说话人的后验概率,即;
(4)将所述后验概率用于训练的损失函数,训练完成后,去掉所述softmax层,导出每段语音的特征向量S,用所述特征向量S训练PLDA模型,使用所述PLDA模型完成声纹识别。
由于神经网络不仅仅是一个分类器,而是一个特征提取器和分类器的结合,每一层都有极强的特征提取能力,为了高度利用时延神经网络TDNN的这种能力,将softmax层之前的至少两个全连接层的输出作为softmax层的输入。
作为具体实施例地,所述后验概率用于训练的损失函数的交叉熵为:,其中,n为要输入TDNN的语音,k为各个说话人,所述dnk的值为1或0。
作为具体实施例地,所述说话人语音段X1、X2、...XT为20维梅尔频率倒谱系数特征,且其帧长为25ms,帧移为10ms。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京硅基智能科技有限公司,未经南京硅基智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910323405.1/2.html,转载请声明来源钻瓜专利网。





