[发明专利]一种两人场景下目标个体打呼区分方法有效
申请号: | 201910628651.8 | 申请日: | 2019-07-12 |
公开(公告)号: | CN110349587B | 公开(公告)日: | 2022-03-25 |
发明(设计)人: | 常相茂;彭程 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G10L17/06 | 分类号: | G10L17/06;G10L17/02;G10L17/26;G10L25/51;G10L25/66;G10L25/24 |
代理公司: | 南京钟山专利代理有限公司 32252 | 代理人: | 上官凤栖 |
地址: | 210000 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 场景 目标 个体 打呼 区分 方法 | ||
1.一种两人场景下目标个体打呼区分方法,其特征在于,包括如下步骤:
S1单人场景下采样:负责单独采集目标个体打呼音频并提取相关特征,通过使用移动设备采集目标个体单独睡眠时的打呼音频,提取频域特征并存储用于目标个体识别;
S2两人场景下采样:负责采集目标个体和干扰个体两人打呼音频并提取相关特征,通过使用移动设备采集两人场景下睡眠时的打呼音频,提取频域特征并存储用于目标个体识别;
S3目标个体识别:负责将两人场景下目标个体的打呼音频识别出来,通过将单人场景下以及两人场景下采样的频域特征混合,对混合频域特征进行降维并聚类,对单人场景下目标个体的聚类结果和两人场景下的聚类结果进行对比分析,将目标个体打呼音频识别出来;步骤S3的处理流程如下:
S3.1将单人场景下以及两人场景下采样的频域特征混合,使用主成分提取法降维到两维空间中;
S3.2计算聚类数目分别为1,2,3时所对应的AIC值:
AIC=(2K-2L)/n
其中,K是高斯混合模型参数的数量,L是对数似然值,n是打呼帧数目,AIC值最小的聚类数目是最佳聚类数目;
S3.3根据最佳聚类数目用高斯混合模型进行聚类;
S3.4通过对聚类结果进行对比分析识别目标个体打呼音频。
2.如权利要求1所述的一种两人场景下目标个体打呼区分方法,其特征在于:步骤S1的处理流程如下:
S1.1对于目标个体单人睡眠下的情景,使用移动设备采集目标个体睡眠时的打呼音频;
S1.2将采集后的打呼音频划分帧;
S1.3对每个帧计算12维梅尔频率倒谱系数以及12维线性预测倒谱系数作为频域特征;
S1.4将频域特征存储用于目标个体标记。
3.如权利要求1所述的一种两人场景下目标个体打呼区分方法,其特征在于:步骤S2的处理流程如下:
S2.1对于目标个体以及干扰个体两人睡眠下的情景,使用移动设备采集两人睡眠时的打呼音频;
S2.2将采集后的打呼音频划分帧;
S2.3对每个帧计算12维梅尔频率倒谱系数以及12维线性预测倒谱系数作为频域特征;
S2.4将频域特征存储用于提取目标个体打呼音频。
4.如权利要求1所述的一种两人场景下目标个体打呼区分方法,其特征在于:步骤S3.4的处理流程如下:
1)若最佳聚类数目为1,则代表两人场景下仅有目标个体一人打呼,两人场景下识别出的打呼帧均为目标个体打呼;
2)若最佳聚类数目为2,则观察两人场景下采样是否在同一聚类中心,若在同一聚类中心,则代表两人场景下目标个体没有打呼,两人场景下识别出的打呼帧均为干扰个体打呼;
3)若最佳聚类数目为2,则观察两人场景下采样是否在同一聚类中心,若不在同一聚类中心,则代表两人场景下目标个体有打呼且两人打呼没有重叠部分,两人场景下,与单人场景采样所在聚类中心相同的聚类中心为目标个体打呼帧;
4)若最佳聚类数目为3,则代表两人场景下目标个体和干扰个体打呼有重叠部分,单人场景下采样所在聚类中心为两人场景下目标个体单独打呼帧,计算目标个体单独打呼聚类中心A与其余两个聚类中心B、C的欧式距离:
其中d12、d13分别代表A与B、C之间的欧式距离,μ1、μ2、μ3分别代表A、B、C中的样本值在特征空间里的坐标;距离A较远的聚类中心为干扰个体单独打呼帧,距离A较近的聚类中心为目标个体与干扰个体打呼重叠帧。
5.如权利要求1所述的一种两人场景下目标个体打呼区分方法,其特征在于:所述移动设备为麦克风。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910628651.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:电信诈骗检测方法及装置
- 下一篇:一种基于词嵌入的LSTM网络声纹识别方法