[发明专利]自动语音识别技术的清洗方法、装置以及电子设备在审
| 申请号: | 202210267032.2 | 申请日: | 2022-03-17 |
| 公开(公告)号: | CN114627875A | 公开(公告)日: | 2022-06-14 |
| 发明(设计)人: | 朱彦浩;胡郡郡;唐大闰 | 申请(专利权)人: | 北京明略昭辉科技有限公司 |
| 主分类号: | G10L15/26 | 分类号: | G10L15/26;G06F16/33;G06F16/783;G06F40/20 |
| 代理公司: | 北京华夏泰和知识产权代理有限公司 11662 | 代理人: | 沈园园 |
| 地址: | 100098 北京市海淀区*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 自动 语音 识别 技术 清洗 方法 装置 以及 电子设备 | ||
1.一种自动语音识别技术的清洗方法,其特征在于,包括:
将待测试视频进行切分,得到多段第一时长的目标视频段;
将所述目标视频段通过自动语音技术识别技术得到对应的目标文本;
将所述目标视频段和对应的目标文本发送至已训练的网络结构模型中,由所述网络结构模型对所述目标文本内的字符进行打分,得到所述字符的得分;
当所述字符的得分大于或等于阈值的情况下,保留所述目标文本中的所述字符;
当所述字符的得分小于阈值的情况下,从所述目标文本中删除所述字符。
2.根据权利要求1所述的方法,其特征在于,在将所述目标视频段和对应的目标文本发送至已训练的网络结构模型中之前,所述方法还包括:
获取第一视频和第二视频;
根据所述第一视频和所述第二视频确定正样本和负样本;
使用所述正样本和所述负样本训练网络结构模型,得到已训练的所述网络结构模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一视频和所述第二视频确定正样本视和负样本包括:
从所述第一视频中提取出多段第一时长的第一视频段,从所述第二视频中提取出多段所述第一时长的第二视频段;
识别所述第一视频段的语音信息,得到所述第一视频段的第一文本,识别所述第二视频段的语音信息,得到所述第二视频段的第二文本;
将所述第一视频段和所述第一文本作为所述正样本,将所述第一视频段和所述第二文本作为所述负样本。
4.根据权利要求3所述的方法,其特征在于,所述从所述第一视频中提取出多段第一时长的第一视频段并从所述第二视频中提取出多段第一时长的第二视频段包括:
对所述第一视频进行第一数量次随机采样,每次随机采样所述第一时长的所述第一视频段,得到所述第一数量的所述第一时长的所述第一视频段;
对所述第二视频进行所述第一数量次随机采样,每次随机采样所述第一时长的所述第二视频段,得到所述第一数量的所述第一时长的所述第二视频段。
5.根据权利要求2所述的方法,其特征在于,所述使用所述正样本和所述负样本训练网络结构模型,得到已训练的所述网络结构模型包括:
将所述第一视频段和所述第二视频段作为待训练视频段发送至未训练的网络结构模型中进行训练,在所述待训练视频段与所述正样本对应的情况下,输出结果为1;
在所述待训练视频段与所述负样本对应的情况下,输出结果为0;
在所述待训练视频段训练结束后,得到已训练的所述网络结构模型。
6.根据权利要求1-5任意一项所述的方法,其特征在于,所述将所述目标视频段和对应的目标文本发送至已训练的网络结构模型中,由所述网络结构模型对所述目标文本内的字符进行打分包括:
通过所述目标视频段得到第二数量的视频画面;
通过所述目标文本得到第三数量的所述字符;
通过注意力机制计算所述字符对所有所述视频画面的关注分,得到第二数量的所述关注分;
获得所述第二数量的所述关注分的和;
将所述和与所述第二数量的商作为所述字符对应的得分。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述目标文本执行保留和删除操作后,进行保存。
8.一种自动语音识别技术的清洗装置,其特征在于,包括:
切分模块,用于将待测试视频进行切分,得到多段第一时长的目标视频段;
第一处理模块,用于将所述目标视频段通过自动语音技术识别技术得到对应的目标文本;
发送模块,用于将所述目标视频段和对应的目标文本发送至已训练的网络结构模型中,由所述网络结构模型对所述目标文本内的字符进行打分,得到所述字符的得分;
第二处理模块,用于当所述字符的得分大于或等于阈值的情况下,保留所述目标文本中的所述字符;
第三处理模块,用于当所述字符的得分小于阈值的情况下,从所述目标文本中删除所述字符。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京明略昭辉科技有限公司,未经北京明略昭辉科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210267032.2/1.html,转载请声明来源钻瓜专利网。





