[发明专利]一种在对话策略中响应情感类别预测方法在审
申请号: | 202210761098.7 | 申请日: | 2022-06-30 |
公开(公告)号: | CN115062115A | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 王振宇;张睿;徐恺 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/332;G06F16/35;G06N3/04;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 江裕强 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 对话 策略 响应 情感 类别 预测 方法 | ||
本发明公开了一种在对话策略中响应情感类别预测方法。所述方法包括以下步骤:知识增强的对话上下文编码模块通过分层Transformer网络将前M‑1轮的对话历史信息V1:M‑1编码为上下文向量表示X1:M‑1,并融合对话中的对话特征;潜在情感响应学习模块采用变分网络学习语料中从上下文向量表示X1:M‑1到情感响应的映射,从而建模得到潜在分布z;交互情感预测模块将对话上下文编码模块输出的上下文向量表示X1:M‑1和潜在分布z作为输入,预测响应情感E′Y。本发明提出的方法实现响应情感类别的预测,赋予对话代理自适应地进行多样化情感表达的能力,缓解目标文本缺失导致的推断合理性问题。
技术领域
本发明涉及自然语言处理中的人机对话领域,具体涉及一种在对话策略中响应情感类别预测方法。
技术背景
随着人工智能等技术的发展,国家建设数字化建设的提出,各行各业对智能人机对话的需求持续增长。自然语言处理的研究是实现数字化、智能化生活与服务不可或缺的环节。研究富有情感的任务型对话系统是能够为智能化的人机交互系统带来更加实用的价值。
目前,任务型对话代理在帮助客户解决特定的任务时缺乏情感的响应。具备多样化情感表达能力的对话代理需要根据当前任务的需求自适应地切换不同的情感风格与用户进行对话,从而提高对话的成功率和用户满意度。先前,许多模型通过人工设置特定的触发规则来选取预先定义的情感表达模板。然而,这样的模型通常需要构建庞大的规则库以适应复杂的对话场景,该过程往往费时费力。随着近年来深度学习技术的发展,基于深度神经网络的情感人机对话生成模型大量涌现。然而,目前基于端到端形式的情感对话生成方法往往忽略了响应情感类别的预测问题。这些对话生成模型旨在根据给定的响应情感类型和特定的对话上下文生成与该响应情感类型一致的情感回复。也就是说,这些方法通常假定对话生成时,其响应情感的类别是已知的。该假设导致这些模型仅能够在特定的标注数据集上进行训练和测试,而无法被部署到线上对话系统中,因为在线上运行时,用户不会主动告知对话代理应该用哪种情感来进行回复,此时响应情感类别的标签是缺失的。
自适应的响应情感类别任务可以看成做一项存在目标文本缺失问题的特殊文本分类任务。经典的文本情感分类任务是从已知的文本片段中提取相应的语义信息并对其类型进行判别;而在响应情感类别预测任务中,模型无法获得尚未生成的情感响应内容,而需要直接根据对话上下文信息对响应的情感类型进行推断。这种目标文本缺失的现象也称为“鸿沟”问题,该现象导致现有的对话情感分类方法在这一任务上无法取得很好的效果,因为这些模型不具备对未来的响应进行推断的能力。
现有技术中,情感分类的方法和情感分类模型的训练方法、装置,只根据输入的文本进行情感分类,而不能解决目标文本缺失的问题(杨哲,卓泽城,龚建,黄强,潘旭.情感分类的方法和情感分类模型的训练方法、装置[P].北京市:CN113806541A,2021-12-17.)。
发明内容
为了实现响应情感类别的预测,并缓解该任务所面临的目标文本缺失问题,本发明提出面向任务型对话的响应情感类别预测方法。由于直接根据对话上下文历史预测合理的响应情感类型非常困难,该方法结合对话中的任务相关知识实现多轮对话编码,并引入变分网络将潜在的合理响应建模为语义空间上的分布,利用该分布强化响应情感的类别进行推断的能力。
本发明至少通过如下技术方案之一实现。
一种在对话策略中响应情感类别预测方法,包括以下步骤:
S1、知识增强的对话上下文编码模块通过分层Transformer网络将前M-1轮的对话历史信息V1:M-1编码为上下文向量表示X1:M-1,并融合对话中的对话特征,提升上下文编码模块的语义表征能力;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210761098.7/2.html,转载请声明来源钻瓜专利网。