[发明专利]基于无监督对话预训练的对话理解与答案配置方法及系统有效
申请号: | 202110595442.5 | 申请日: | 2021-05-29 |
公开(公告)号: | CN113032545B | 公开(公告)日: | 2021-09-03 |
发明(设计)人: | 张振羽;江岭;黄鹏 | 申请(专利权)人: | 成都晓多科技有限公司 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/33;G06F40/126;G06F40/284;G06N3/04;G06N3/08 |
代理公司: | 成都睿道专利代理事务所(普通合伙) 51217 | 代理人: | 薛波 |
地址: | 610000 四川省成都*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 监督 对话 训练 理解 答案 配置 方法 系统 | ||
1.基于无监督对话预训练的对话理解与答案配置方法,其特征在于,包括如下步骤:
进行对话相关的对话信息预处理,构建具有对话内容、角色信息及轮次信息的对话输入样本,将对话输入的信息进行词嵌入;所述进行对话相关的对话信息预处理包括:
利用sentencepiece构建分句模型;
基于unigram model算法对所述分句模型进行预训练;
利用训练完成后的分句模型对对话信息进行分句处理;
所述将对话输入的信息进行词嵌入包括:
将对话信息输入嵌入层,所述嵌入层包括对话轮次嵌入层、角色信息嵌入层、位置嵌入层以及单词嵌入层;
经角色信息嵌入层对话信息中句子的角色信息进行词嵌入,经对话轮次嵌入层对句子的轮次信息进行词嵌入,经单词嵌入层对单词的信息进行词嵌入,经位置嵌入层对单词的位置信息进行词嵌入;
将带有对话文本单词信息、位置信息、角色信息以及轮次信息的词嵌入输出结果相加作为对话预训练语言模型encoder的输入;所述对话预训练语言模型为采用adapter方法进行权重初始化后的Transformer模型,其中,采用adapter方法进行权重初始化具体包括:
将对话样本
将对话样本
计算预训练语言模型LM中激活神经元在各层的占比
其中,
上式中,
采用梯度下降算法AsamW对Transformer模型encoder每层的参数进行优化;
对模型encoder输出的编码向量进行基于BiLSTM-CNN的池化处理,获得对话表征向量;
利用对话级别的句子掩码建模、单词整体掩码建模和基于回复生成的对话级别对比学习建模其中之一或其任意组合生成的预训练学习任务,对模型进行优化。
2.如权利要求1所述的基于无监督对话预训练的对话理解与答案配置方法,其特征在于,所述对模型encoder输出的编码向量进行基于BiLSTM-CNN的池化处理包括:
将编码向量输入双向长短记忆网络BiLSTM,对所述编码向量进行降维编码,获得双向降维隐向量:
拼接所述双向降维隐向量:
将拼接后的结果输入卷积神经网络CNN,经最大池化操作输出对话表征向量如下:
上式中,,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都晓多科技有限公司,未经成都晓多科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110595442.5/1.html,转载请声明来源钻瓜专利网。