[发明专利]一种声纹识别方法、系统及电子设备有效
申请号: | 201710476188.0 | 申请日: | 2017-06-21 |
公开(公告)号: | CN109102812B | 公开(公告)日: | 2021-08-31 |
发明(设计)人: | 张涛涛;许云飞;潘逸倩;陈伟 | 申请(专利权)人: | 北京搜狗科技发展有限公司 |
主分类号: | G10L17/02 | 分类号: | G10L17/02;G10L17/04;G10L17/08;G10L17/14;G10L17/16;G10L25/03;G10L25/30 |
代理公司: | 北京华沛德权律师事务所 11302 | 代理人: | 马苗苗 |
地址: | 100084 北京市海淀区中关*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 声纹 识别 方法 系统 电子设备 | ||
1.一种声纹识别方法,其特征在于,所述方法包括:
基于通用背景模型的矢量提取模型分别对第一语音和第二语音进行语音矢量提取,获得第一语音的第一语音矢量和第二语音的第二语音矢量;
基于深度神经网络的矢量提取模型分别对第一语音和第二语音进行语音矢量提取,获得第一语音的第三语音矢量和第二语音的第四语音矢量;
通过至少一个声纹识别模型基于所述第一语音矢量和所述第二语音矢量进行声纹识别,获得表征所述第一语音与所述第二语音之间相似度的第一参数;
通过至少一个声纹识别模型基于所述第三语音矢量和所述第四语音矢量进行声纹识别,获得表征所述第一语音与所述第二语音之间相似度的第二参数;
基于所述第一参数和所述第二参数,确认所述第一语音和所述第二语音是否来自同一声源。
2.如权利要求1所述的方法,其特征在于,所述第一参数包括第一得分和/或第二得分;
所述第一得分通过概率线性区分性分析模型对第一语音矢量和第二语音矢量进行声纹识别获得,用于表征所述第一语音与所述第二语音之间相似度的;
所述第二得分通过深度神经网络的二分类模型对第一语音矢量和第二语音矢量进行声纹识别获得,用于表征所述第一语音与所述第二语音之间相似度。
3.如权利要求2所述的方法,其特征在于,所述第二参数包括第三得分和/或第四得分;
所述第三得分通过概率线性区分性分析模型对第三语音矢量和第四语音矢量进行声纹识别获得,用于表征所述第一语音与所述第二语音之间相似度;
所述第四得分通过深度神经网络的二分类模型对第三语音矢量和第四语音矢量进行声纹识别获得,用于表征所述第一语音与所述第二语音之间相似度。
4.如权利要求3所述的方法,其特征在于,所述基于所述第一参数和所述第二参数,确认所述第一语音和所述第二语音是否来自同一声源,包括:
对所述第一参数中的至少一个得分和所述第二参数中的至少一个得分进行融合,确认所述第一语音和所述第二语音是否来自同一声源。
5.如权利要求1~4任一所述的方法,其特征在于,所述基于所述第一参数和所述第二参数,确认所述第一语音和所述第二语音是否来自同一声源,包括:
针对不同的语音矢量提取模型和声纹识别模型,获得不同的得分融合系数;
基于所述得分融合系数,对所述第一参数和所述第二参数进行融合,获得综合得分;
若所述综合得分大于设定阈值,确认所述第一语音和所述第二语音来自同一声源,反之,确定所述第一语音和所述第二语音来自不同的声源。
6.如权利要求5所述的方法,其特征在于,所述基于所述得分融合系数,对所述第一参数和所述第二参数进行融合,获得综合得分,包括:
sfinal=α1s1+α2s2+α3s3+α4s4
其中,sfinal为综合得分,s1、s2为第一参数中的第一得分和第二得分,s3、s4为第二参数中的第三得分和第四得分,α1、α2、α3、α4分别为各得分对应的得分融合系数。
7.如权利要求6所述的方法,其特征在于,所述针对不同的语音矢量提取模型和声纹识别模型,获得不同的得分融合系数,包括:
针对不同的语音矢量提取模型和声纹识别模型,获得使各声纹识别模型输出得分转换为同一数量级上的得分融合系数。
8.如权利要求6所述的方法,其特征在于,所述针对不同的语音矢量提取模型和声纹识别模型,获得不同的得分融合系数,包括:
采用逻辑回归算法,获得与各语音矢量提取模型和声纹识别模型的特征相关的得分融合系数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京搜狗科技发展有限公司,未经北京搜狗科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710476188.0/1.html,转载请声明来源钻瓜专利网。