[发明专利]音频类别的确定方法、装置、存储介质及电子装置在审
申请号: | 202110853406.4 | 申请日: | 2021-07-27 |
公开(公告)号: | CN113593603A | 公开(公告)日: | 2021-11-02 |
发明(设计)人: | 张锦铖;史巍;林聚财;殷俊 | 申请(专利权)人: | 浙江大华技术股份有限公司 |
主分类号: | G10L25/03 | 分类号: | G10L25/03;G10L25/51;G06N20/00 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 赵静 |
地址: | 310051 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 音频 类别 确定 方法 装置 存储 介质 电子 | ||
1.一种音频类别的确定方法,其特征在于,包括:
确定获取到的目标音频数据的目标特征;
使用目标模型对所述目标特征进行分析,以确定所述目标音频数据中包括的每帧音频数据属于每个声音类别的第一概率,其中,所述目标模型为使用多组目标训练数据通过机器学习训练出的,所述多组目标训练数据中的每组数据包括:音频数据的特征和每帧音频的声音类别,所述每组数据均是进行了增强处理后所得到的数据,所述目标模型中包括多个卷积层;
基于所述第一概率确定所述目标音频数据中包括的每帧音频数据所属的目标声音类别。
2.根据权利要求1所述的方法,其特征在于,在使用目标模型对所述目标特征进行分析之前,所述方法还包括:
获取多组训练音频数据;
对多组所述训练音频数据进行增强处理,以得到多组所述目标训练数据;
利用多组所述目标训练数据训练初始模型,以得到所述目标模型。
3.根据权利要求2所述的方法,其特征在于,对多组所述训练音频数据进行增强处理,以得到多组所述目标训练数据包括以下至少之一:
对多组所述训练音频数据中的每组训练音频数据中包括的连续两帧子音频数据进行融合处理,以得到多组所述目标训练数据;
对多组所述训练音频数据中的每组训练音频数据的频域数据和/或时域数据进行变形处理,以得到多组所述目标训练数据;
对多组所述训练音频数据中的每组训练音频数据进行变调处理,以得到多组所述目标训练数据。
4.根据权利要求3所述的方法,其特征在于,
对多组所述训练音频数据中的每组训练音频数据中包括的连续两帧子音频数据进行融合处理包括:通过Mixup增强方式对所述音频数据进行所述融合处理;
对多组所述训练音频数据中的每组训练音频数据的频域数据和/或时域数据进行变形处理包括:通过Spec-agumentation增强方式对所述音频数据进行所述变形处理;
对多组所述训练音频数据中的每组训练音频数据进行变调处理包括:通过Pitch-shift增强方式对所述音频数据进行所述变调处理。
5.根据权利要求1所述的方法,其特征在于,使用目标模型对所述目标特征进行分析,以确定所述目标音频数据中包括的每帧音频数据属于每个声音类别的第一概率包括:
依次利用所述目标模型包括的第一卷积层、批归一化层、第一激活层、多个目标层以及softmax函数对所述目标特征进行处理,以确定所述第一概率,其中,所述目标层包括第二卷积层、第二激活层和丢弃层。
6.根据权利要求1所述的方法,其特征在于,基于所述第一概率确定所述目标音频数据中包括的每帧音频数据所属的目标声音类别包括:
对每帧音频数据所对应的所述第一概率进行过滤处理,以得到所述每帧音频数据的目标概率;
基于所述目标概率确定所述每帧音频数据所属的所述目标声音类别。
7.根据权利要求6所述的方法,其特征在于,对每帧音频数据所对应的所述第一概率进行过滤处理,以得到所述每帧音频数据的目标概率包括:
对所述每帧音频数据的所述第一概率均执行以下操作,以得到所述每帧音频数据的所述目标概率:
分别确定在当前帧音频数据之前,且与所述当前帧音频相邻的连续第一数量帧音频数据属于每个声音类别的第二概率;
分别确定在当前帧音频数据之后,且与所述当前帧音频相邻的连续第二数量帧音频数据属于每个声音类别的第三概率;
对所述第一概率、第二概率以及所述第三概率进行中值滤波平滑处理,以确定所述当前帧音频数据对应的所述目标概率。
8.根据权利要求1至7任一项所述的方法,其特征在于,所述目标模型中包括的多个所述卷积层均包括3*3Convolutional Layer。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大华技术股份有限公司,未经浙江大华技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110853406.4/1.html,转载请声明来源钻瓜专利网。