[发明专利]信息处理方法、装置、计算机设备和存储介质有效
申请号: | 201810566917.6 | 申请日: | 2018-06-05 |
公开(公告)号: | CN108776832B | 公开(公告)日: | 2021-08-24 |
发明(设计)人: | 姜文浩;马林;刘威;张潼 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 广州华进联合专利商标代理有限公司 44224 | 代理人: | 何平;邓云鹏 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 信息处理 方法 装置 计算机 设备 存储 介质 | ||
本发明涉及一种信息处理方法、装置、计算机设备和存储介质,方法包括:获取待处理原始数据;将待处理原始数据输入到已训练的机器学习模型的编码模型中,得到对应的编码向量;将编码向量输入到机器学习模型的中间处理模型中,得到中间向量序列,其中,中间处理模型包括多个子学习模型,各个子学习模型包括多个循环神经网络单元,当前循环神经网络单元的输出是根据前向循环神经网络单元对应的第一输出向量以及当前循环神经网络单元对应的前向子学习模型输出的前向向量序列得到的;将中间向量序列输入到机器学习模型的解码模型中,得到待处理原始数据对应的目标输出数据。上述方法可以提高输出数据的准确度。
技术领域
本发明涉及信息处理领域,特别是涉及信息处理方法、装置、计算机设备和存储介质。
背景技术
随着信息技术的发展,将输入的数据转换为另外一种数据输出的需求越来越多。例如,需要将一种语言文字表示的句子翻译成另一种语言文字输出以及将不完整的句子进行补全等。
目前,可以基于Encoder-Decoder(编码模型-解码模型)的框架将输入数据序列转换为另一个序列输出,在该框架中,编码模型对输入数据进行编码,得到编码向量,解码模型对编码向量进行解码,得到输出数据。然而,上述框架中,编码向量得到的编码向量不能完全反映输入数据中各个数据间的关系,导致输出数据的准确度高。
发明内容
基于此,有必要针对上述的问题,提供一种信息处理方法、装置、计算机设备和存储介质,在编码模型以及解码模型中增加中间处理模型,中间处理模型包括多个子学习模型,各个子学习模型包括多个循环神经网络单元,当前循环神经网络单元的输出是根据前向循环神经网络单元对应的第一输出向量以及当前循环神经网络单元对应的前向子学习模型输出的前向向量序列得到的,各个循环神经网络单元得到的向量与前向得到的向量联系紧密,因此得到的中间向量序列能够进一步反映输入数据间的联系,得到的输出数据的准确度高。
一种信息处理方法,所述方法包括:获取待处理原始数据;将所述待处理原始数据输入到已训练的机器学习模型的编码模型中,得到对应的编码向量;将所述编码向量输入到所述机器学习模型的中间处理模型中,得到中间向量序列,其中,所述中间处理模型包括多个子学习模型,各个子学习模型包括多个循环神经网络单元,当前循环神经网络单元的输出是根据前向循环神经网络单元对应的第一输出向量以及所述当前循环神经网络单元对应的前向子学习模型输出的前向向量序列得到的;将所述中间向量序列输入到所述机器学习模型的解码模型中,得到所述待处理原始数据对应的目标输出数据。
一种信息处理装置,所述装置包括:原始数据获取模块,用于获取待处理原始数据;编码模块,用于将所述待处理原始数据输入到已训练的机器学习模型的编码模型中,得到对应的编码向量;中间处理模块,用于将所述编码向量输入到所述机器学习模型的中间处理模型中,得到中间向量序列,其中,所述中间处理模型包括多个子学习模型,各个子学习模型包括多个循环神经网络单元,当前循环神经网络单元的输出是根据前向循环神经网络单元对应的第一输出向量以及所述当前循环神经网络单元对应的前向子学习模型输出的前向向量序列得到的;解码模块,用于将所述中间向量序列输入到所述机器学习模型的解码模型中,得到所述待处理原始数据对应的目标输出数据。
在其中一个实施例中,所述第一系数确定模块用于:分别计算所述各个前向向量与所述第一输出向量对应的相关度;根据所述各个前向向量与所述第一输出向量对应的相关度计算得到所述各个前向向量对应的第一注意力分配权重系数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810566917.6/2.html,转载请声明来源钻瓜专利网。