[发明专利]基于情感分析的智能问答方法及相关设备在审
| 申请号: | 201911173449.7 | 申请日: | 2019-11-26 |
| 公开(公告)号: | CN110931006A | 公开(公告)日: | 2020-03-27 |
| 发明(设计)人: | 吴名先 | 申请(专利权)人: | 深圳壹账通智能科技有限公司 |
| 主分类号: | G10L15/22 | 分类号: | G10L15/22;G10L15/06;G10L15/26;G10L25/63;G10L13/08 |
| 代理公司: | 深圳市隆天联鼎知识产权代理有限公司 44232 | 代理人: | 魏学昊 |
| 地址: | 518000 广东省深圳市前海深港合作区前*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 情感 分析 智能 问答 方法 相关 设备 | ||
1.一种基于情感分析的智能问答的方法,其特征在于,所述方法包括:
从用户端发送的用户提问视音频数据中,提取所述用户提问视音频数据中包含的提问音频数据;
调用预设的语音识别模型对所述提问音频数据进行识别,获取所述提问音频数据对应的提问文本信息;
基于所述提问文本信息在预设的数据库中确定多个候选答案文本信息,所述多个候选答案文本信息分别对应着多个用户情绪类别;
基于所述提问视音频数据中提取的提问视频数据,利用预设的微表情识别模型,获取所述用户的第一候选情绪类别集合,基于所述提问视音频数据中提取的提问语音数据,利用预设的语音情绪识别模型,获取所述用户的第二候选情绪类别集合;
基于所述第一候选情绪类别与所述第二候选情绪类别,确定所述用户的情绪类别;
基于所述用户的情绪类别,在所述多个候选答案文本信息中确定目标答案文本;
将所述目标答案文本转换成语音通过扬声器播放。
2.根据权利要求1所述的方法,其特征在于,在所述调用预设的语音识别模型对所述提问音频数据进行识别,获取所述提问音频数据对应的提问文本信息之前,还包括:
获取预先设置的语音数据样本集合;
预先识别所述语音数据样本集合中每个语音数据样本对应的文本信息;
将所述语音数据样本输入所述语音识别模型,获取由所述语音识别模型输出的文本信息,将所述语音识别模型输出的文本信息与预先识别的文本信息进行比对,如不一致则调整所述语音识别模型,直至所述语音识别模型输出的文本信息与预先确定的文本信息一致。
3.根据权利要求1所述的方法,其特征在于,所述基于所述第一候选情绪类别与所述第二候选情绪类别,确定所述用户的情绪类别包括:
如果所述第一候选情绪类别集合与所述第二候选情绪类别集合的交集为一个候选情绪类别,将该候选情绪类别作为用户情绪类别。
4.根据权利要求1所述的方法,其特征在于,所述基于所述第一候选情绪类别与所述第二候选情绪类别,确定所述用户的情绪类别,还包括:
如果所述第一候选情绪类别集合与所述第二候选情绪类别集合的交集为二个以上候选情绪类别,获取二个以上候选情绪类别的预设的权重;
将所述二个以上候选情绪类别中权重最大的候选情绪类别,作为用户情绪类别。
5.根据权利要求1所述的方法,其特征在于,在所述基于所述用户的情绪类别,在所述多个候选答案文本信息中确定目标答案文本之后,还包括:
基于所述用户情绪类别,确定要在所述目标文本信息中添加的语气助词及所要添加语气助词的位置;
将确定的语气助词添加到目标答案文本中确定的添加语气助词的位置处。
6.根据权利要求4所述的方法,其特征在于,所述将所述目标答案文本转换成语音通过扬声器播放,包括:
基于所述用户情绪类别,确定与所述用户提问相对应的回复情绪类别;
将所述回复情绪类别与所述添加了语气助词的目标文本信息输入预设的语音生成模型,获取语音生成模型生成的回复语音,通过扬声器播放。
7.根据权利要求1所述的方法,其特征在于,所述基于所述提问文本信息在预设的数据库中确定多个候选答案文本信息,包括:
从所述提问文本信息中提取情绪关键词;
将所述情绪关键词与所述数据库中的关键词样本进行相似度计算,得到相似度大于预定阈值的多个关键词样本;
将所述相似度大于预定阈值的多个关键词样本关联的候选答案文本样本确定为所述多个候选答案文本信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳壹账通智能科技有限公司,未经深圳壹账通智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911173449.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种旋转吸嘴装置
- 下一篇:一种基于动态字段的查询报表生成方法





