[发明专利]一种在对话策略中响应情感类别预测方法在审
申请号: | 202210761098.7 | 申请日: | 2022-06-30 |
公开(公告)号: | CN115062115A | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 王振宇;张睿;徐恺 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/332;G06F16/35;G06N3/04;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 江裕强 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 对话 策略 响应 情感 类别 预测 方法 | ||
1.一种在对话策略中响应情感类别预测方法,其特征在于,包括以下步骤:
S1、知识增强的对话上下文编码模块通过分层Transformer网络将前M-1轮的对话历史信息V1:M-1编码为上下文向量表示X1:M-1,并融合对话中的对话特征,提升上下文编码模块的语义表征能力;
S2、潜在情感响应学习模块采用变分网络学习语料中从上下文向量表示X1:M-1到情感响应的映射,从而建模得到潜在分布z,潜在分布z能够从语料中学习到情感对话的交互模式;
S3、交互情感预测模块通过一个带有softmax激活的线性网络实现;交互情感预测模块将对话上下文编码模块输出的上下文向量表示X1:M-1和潜在分布z作为输入,预测响应情感E′Y。
2.根据权利要求1所述的一种在对话策略中响应情感类别预测方法,其特征在于,步骤S1中,对于前M-1轮的对话历史信息V1:M-1中的每一轮对话,融合对话文本、任务相关知识和属性三种对话特征,每一种对话特征的表示形式均为向量化表示。
3.根据权利要求2所述的一种在对话策略中响应情感类别预测方法,其特征在于,所述对话文本是对话的上下文。
4.根据权利要求2所述的一种在对话策略中响应情感类别预测方法,其特征在于,所述任务相关知识为任务型对话中的用户意图和槽值信息,通过查询数据库得到。
5.根据权利要求2所述的一种在对话策略中响应情感类别预测方法,其特征在于,所述属性信息为用户角色类型和用户角色的情感信息,用户角色类型包括对话代理和客户。
6.根据权利要求2所述的一种在对话策略中响应情感类别预测方法,其特征在于,步骤S1具体包括以下步骤:
S1.1、对于第k轮对话中由用户或对话代理产生的对话文本使用BERT模型将对话文本Vk编码为对话文本向量vk;为第k轮中第i个用户或对话代理产生的对话文本;
S1.2、对于第k轮对话中包括的任务相关知识采用BERT模型进行知识编码得到任务相关知识向量uk,其中,为第k轮第i个用户的任务相关知识,任务相关知识的编码同样采用BERT模型进行参数初始化;
S1.3、对于第k轮对话中的属性信息,将用户角色类型和第k轮对话的情感类别表示为独热向量,并采用一个线性的属性编码网络将该独热向量表示为第k轮对话中的属性信息向量attk;
S1.4、对于第k轮对话,通过一个线性前馈网络和一个分层池化操作融合对话文本向量vk、任务相关知识向量uk和属性信息向量attk并得到句子级的编码向量sk:
sk=Hierarchical_pooling(Ws·[vk;Mean(uk);attk]+bs)
其中,Mean(·)表示平均池化操作,Ws和bs分别为线性前馈网络的权重和偏置;sk是第k轮对话中的经过分层池化操作Hierarchical_Pooling(·)处理后得到的句子级的编码向量;分层池化操作首先对原有的句子向量进行n-gram窗口的最大池化操作,再进行平均池化得到最终的句子编码结果;
S1.5、采用分层Transformer网络通过多头自注意力机制将前M-1轮对话中的句子级的编码向量sk转换为前M-1轮的上下文向量表示X1:M-1:
X1:M-1=Encoder(s1:M-1)
对话级编码网络中的多头注意力机制能够忽略对话的时序关系,捕捉到多轮对话中的长程依赖,从而能够更加有效地提取到与当前响应情感类别预测任务有关的对话历史信息;s1:M-1表示前M-1轮对话的句子级的编码向量,s1:M-1=s1,s2,…sk,…,sM-1。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210761098.7/1.html,转载请声明来源钻瓜专利网。