[发明专利]模型训练方法、对话生成方法和装置、设备及存储介质在审
申请号: | 202210532361.5 | 申请日: | 2022-05-11 |
公开(公告)号: | CN114936274A | 公开(公告)日: | 2022-08-23 |
发明(设计)人: | 司世景;王健宗;叶童 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F40/289;G06N3/08 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 廖慧贤 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 模型 训练 方法 对话 生成 装置 设备 存储 介质 | ||
本申请实施例提供了一种模型训练方法、对话生成方法和装置、设备及存储介质,属于人工智能技术领域。该方法包括:获取样本数据,其中,样本数据包括样本问题和候选答案;对样本数据进行分词处理,得到多个样本问答对;将样本问答对输入至预设的神经网络模型中,其中,神经网络模型包括编码层和高斯过程层;通过编码层对样本问答对进行特征提取,得到样本表征向量;通过高斯过程层对预设变量和样本表征向量进行对话预测,得到样本预测概率;根据样本预测概率对神经网络模型的损失函数进行优化,得到对话生成模型,其中,对话生成模型用于根据输入的目标问题生成目标回复答案。本申请实施例能够提高模型的训练效果。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种模型训练方法、对话生成方法和装置、设备及存储介质。
背景技术
目前,对话生成方法常常是通过深度神经网络模型对上下文语义与候选答案之间的关系进行提取,从而寻找最佳的候选答案,由于深度神经网络模型存在着过拟合的问题,常常需要进行模型校准,而常用的校准方式往往校准效果较差,影响模型的训练效果,因此,如何提高模型的训练效果,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出一种模型训练方法、对话生成方法和装置、设备及存储介质,旨在提高模型的训练效果。
为实现上述目的,本申请实施例的第一方面提出了一种模型训练方法,所述方法包括:
获取样本数据,其中,所述样本数据包括样本问题和候选答案;
对所述样本数据进行分词处理,得到多个样本问答对;
将所述样本问答对输入至预设的神经网络模型中,其中,所述神经网络模型包括编码层和高斯过程层;
通过所述编码层对所述样本问答对进行特征提取,得到样本表征向量;
通过所述高斯过程层对预设变量和所述样本表征向量进行对话预测,得到样本预测概率;
根据所述样本预测概率对所述神经网络模型的损失函数进行优化,得到对话生成模型,其中,所述对话生成模型用于根据输入的目标问题生成目标回复答案。
在一些实施例,所述对所述样本数据进行分词处理,得到多个样本问答对的步骤,包括:
通过预设的分词器对所述样本数据进行分词处理,得到标注有序号标签的样本问题片段和标注有序号标签的候选答案片段;
根据所述序号标签对所述样本问题片段和所述候选答案片段进行组合处理,得到所述样本问答对。
在一些实施例,所述通过所述编码层对所述样本问答对进行特征提取,得到样本表征向量的步骤,包括:
通过所述编码层对所述样本问答对进行编码处理,得到样本嵌入向量;
通过所述编码层对所述样本嵌入向量进行归一化处理,得到所述样本表征向量。
在一些实施例,所述通过所述高斯过程层对预设变量和所述样本表征向量进行对话预测,得到样本预测概率的步骤,包括:
通过所述高斯过程层对所述样本表征向量进行高斯先验处理,得到样本先验概率值;
通过预设函数对所述预设变量和所述样本先验概率值进行对话预测,得到所述样本预测概率,其中,所述预设变量服从Polya-Gamma分布。
为实现上述目的,本申请实施例的第二方面提出了一种对话生成方法,所述方法包括:
获取待处理的目标问题;
将所述目标问题输入至对话生成模型进行对话生成处理,得到目标回复答案,其中,所述对话生成模型根据如第一方面所述的模型训练方法训练得到。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210532361.5/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种装配式减震轻质复合填充墙板结构
- 下一篇:一种液压锁闭控制器