[发明专利]声纹识别方法、装置、电子设备和存储介质有效
申请号: | 201710476678.0 | 申请日: | 2017-06-21 |
公开(公告)号: | CN109102813B | 公开(公告)日: | 2021-06-22 |
发明(设计)人: | 张涛涛;许云飞;潘逸倩;陈伟 | 申请(专利权)人: | 北京搜狗科技发展有限公司 |
主分类号: | G10L17/02 | 分类号: | G10L17/02;G10L17/04;G10L17/12 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 100084 北京市海淀区中关*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 声纹 识别 方法 装置 电子设备 存储 介质 | ||
本发明实施例提供了一种声纹识别方法、装置、电子设备和存储介质,以提高声纹识别的准确性。所述的方法包括:依据第一语音模型和第二类语音片段进行自适应处理,得到第二语音模型,其中,第一语音模型用于识别第一类语音,所述第二语音模型用于识别第二类语音;采集待识别的第二类语音数据;将所述待识别的第二类语音数据输入所述第二语音模型,识别对应的声纹。采用自适应得到第二语音模型进行声纹识别,提高对声纹识别的准确性。
技术领域
本发明涉及技术领域,特别是涉及一种声纹识别方法、一种声纹识别装置、一种电子设备和一种可读存储介质。
背景技术
声纹识别,生物识别技术的一种,也称为说话人识别,即基于语音数据识别说话人,可用于进行用户识别。但声纹识别的应用也存在一定的缺陷,如同一个人的声音具有易变性,易受身体状况、年龄、情绪等的影响,可能导致识别结果不准确。
例如,一个人唱歌的声音和平时说话声音相差也比较很大,而场景的语音模型都是基于用户说话的语音训练的,无法识别用户唱歌的声纹。若要准确识别用户唱歌的声纹,就需要采用大量歌唱语音的数据,来训练出更适合歌唱语音的模型。但实际处理中,难以采集用户大量的歌唱语音数据来进行模型训练,因此无法得到适合歌唱语音的模型,也就无法准确识别歌唱的用户。
可见当用户通过不同方式发音等情况下,现有的识别方式无法准确进行声纹的识别。
发明内容
本发明实施例提供一种声纹识别方法,以提高声纹识别的准确性。
相应的,本发明实施例还提供了一种声纹识别装置、一种电子设备、一种可读存储介质,用以保证上述方法的实现及应用。
为了解决上述问题,本发明实施例公开了一种声纹识别方法,包括:依据第一语音模型和第二类语音片段进行自适应处理,得到第二语音模型,其中,第一语音模型用于识别第一类语音,所述第二语音模型用于识别第二类语音;采集待识别的第二类语音数据;将所述待识别的第二类语音数据输入所述第二语音模型,识别对应的声纹。
可选的,所述依据第一语音模型和第二类语音片段进行自适应处理,得到第二语音模型,包括:从所述第一语音模型中获取模型参数,并提取所述第二类语音片段的第二类语音特征;依据所述模型参数和第二类语音特征进行自适应处理,得到对应的第二语音模型。
可选的,依据所述模型参数和第二类语音特征进行自适应处理,得到对应的第二语音模型,包括:依据所述模型参数,计算所述第二类语音特征的占有率;依据所述第二类语音特征的占有率,计算自适应第二类语音的模型参数;依据所述自适应第二类语音的模型参数,确定对应的第二语音模型。
可选的,所述依据第二类语音特征的占有率,计算自适应第二类语音的模型参数,包括:依据所述第二类语音特征的占有率,计算所述第二类语音片段的统计量;依据所述统计量和自适应参数,计算自适应第二类语音的模型参数。
可选的,所述第一语音模型为UBM模型,所述模型参数包括:均值。
可选的,还包括:依据所述声纹得到对应的声纹特征;依据所述声纹特征进行用户识别。
可选的,所述依据所述声纹特征进行用户识别,包括:将所述声纹特征输入第三打分模型,确定对应的分值;依据所述分值确定所述第二类语音数据对应的用户。
本发明实施例还提供了一种声纹识别装置,包括:自适应模块,用于依据第一语音模型和第二类语音片段进行自适应处理,得到第二语音模型,其中,第一语音模型用于识别第一类语音,所述第二语音模型用于识别第二类语音;采集模块,用于采集待识别的第二类语音数据;识别模块,用于将所述待识别的第二类语音数据输入所述第二语音模型,识别对应的声纹。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京搜狗科技发展有限公司,未经北京搜狗科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710476678.0/2.html,转载请声明来源钻瓜专利网。