[发明专利]虚拟现实环境语言学习实现方法和自动录音控制方法有效
申请号: | 201710644676.8 | 申请日: | 2017-08-01 |
公开(公告)号: | CN107403011B | 公开(公告)日: | 2020-08-07 |
发明(设计)人: | 龚嵩杰 | 申请(专利权)人: | 三星电子(中国)研发中心;三星电子株式会社 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G10L15/04;G06T19/00 |
代理公司: | 北京德琦知识产权代理有限公司 11018 | 代理人: | 谢安昆;宋志强 |
地址: | 210012 江苏省南京市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 虚拟现实 环境 语言 学习 实现 方法 自动 录音 控制 | ||
1.一种虚拟现实场景环境语言学习实现方法,其特征在于,至少包括以下步骤:
步骤a:进入虚拟现实场景应用程序中,所述场景包括至少一个用户和至少一个虚拟人物;
步骤b:所述用户和所述场景中的其他人员,按预设对话内容和预设的角色发言,直至所述对话内容结束;
所述其他人员包括所述场景中的其他用户或虚拟人物;当发言对象为用户时,用户按承担的角色自动控制地录入相应的语音信息;当所述发言对象为虚拟人物时,所述虚拟人物按承担的角色调用并播放所述对话内容中角色发言所对应的原始录音,所述原始录音为所述应用程序保存的所述对话内容的标准录音;
其中,所述自动控制地录入相应的语音信息,至少包括:
步骤300:进入录音状态,记录用户的语音数据并缓存;
步骤301:实时检测用户语音缓存数据中非静音特征,若检测到非静音特征,则执行步骤302,否则返回步骤300;
步骤302:获取用户语音缓存数据中的非静音特征的时长t1,根据所述时长t1,确定首部片段语音的提取时长t’2和尾部片段语音的提取时长为t’3,满足t1≥t’2+t’3;
步骤303:分别提取原始录音和所述用户语音缓存数据中t1时长的首尾部片段语音,所述首部片段语音的提取时长为t’2,所述尾部片段语音的提取时长为t’3;
步骤304:比较所述原始录音和所述用户缓存语音数据中首尾部片段语音属性的相似度,若相似度均大于第一预设值,则结束当前录音,并保存所述缓存语音数据,否则返回步骤300。
2.根据权利要求1所述的方法,其特征在于,所述步骤302,还包括若t1≥t2+t3,令t’3=t3,t’2=t2;若t1t2+t3,令t’3=pt1,t’2=(1-p)t1,0p≤1;所述t2为首部片段语音的标准提取时长,所述t3为尾部片段语音的标准提取时长。
3.根据权利要求1所述的方法,其特征在于,所述步骤b,还包括,当其他人员发言时,修正所述发言的声音播放频率f为f':f'=γf,
其中,f为原始录音或用户录入语音的频率,所述γ值与所述其他人员和所述用户之间的距离成反比。
4.根据权利要求3所述的方法,其特征在于,当所述其他人员和所述用户的距离越来越小时,所述γ值大于1;当所述发言成员和所述用户的距离越来越大时,所述γ值小于1。
5.根据权利要求4所述的方法,其特征在于,当所述其他人员和所述用户的距离越来越小时,当所述发言成员和所述用户的距离越来越大时,其中,vo为所述用户移动速度,vs为所述其他人员的移动速度,所述其他人员和所述用户之间的连线与所述vs之间的夹角为α,所述其他人员和所述用户之间的连线与所述vo之间的夹角为β,v为声音在空气中的传播速度。
6.根据权利要求1所述的方法,其特征在于,
所述步骤302进一步包括:将所述用户缓存语音数据转换为用户输入文本,比较所述用户输入文本与所述原始录音所对应的原始文本的相似度,如果所述相似度大于第二预设值,则记录第一比较结果;
所述步骤304进一步包括,如果首尾部片段语音特征相似度均大于第一预设值,则记录第二比较结果;并将该第二比较结果、所述第一比较结果进行或运算或与运算,根据运算结果确定是否结束当前录音。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三星电子(中国)研发中心;三星电子株式会社,未经三星电子(中国)研发中心;三星电子株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710644676.8/1.html,转载请声明来源钻瓜专利网。