[发明专利]文本处理模型的运行方法、装置、电子设备、及存储介质在审
申请号: | 201911222138.5 | 申请日: | 2019-12-03 |
公开(公告)号: | CN110909527A | 公开(公告)日: | 2020-03-24 |
发明(设计)人: | 王晓晖;李磊 | 申请(专利权)人: | 北京字节跳动网络技术有限公司 |
主分类号: | G06F40/20 | 分类号: | G06F40/20;G06N3/08 |
代理公司: | 北京远智汇知识产权代理有限公司 11659 | 代理人: | 范坤坤 |
地址: | 100041 北京市石景山区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本 处理 模型 运行 方法 装置 电子设备 存储 介质 | ||
本公开实施例公开了一种文本处理模型的运行方法、装置、电子设备、及存储介质,所述文本处理模型包括至少一个编码器层和至少一个解码器层,其特征在于,所述方法包括:获取输入文本向量;将所述文本向量输入至少一个编码器层进行处理,以形成隐含层向量;将所述隐含层向量输入至少一个解码器层进行处理,以生成输出文本向量;其中,在所述编码器层和/或解码器层的数据计算过程中,调用组合核函数对数据进行处理,所述组合核函数包括至少两个基础核函数,所述基础核函数用于完成数据的数学级别计算,所述组合核函数用于完成数据的功能级别计算。本实施例的技术方案能够降低GPU的显存的读写次数,能够提高运行效率。
技术领域
本公开实施例涉及自然语言处理技术领域,具体涉及一种文本处理模型的运行方法、装置、电子设备、及存储介质。
背景技术
在自然语言处理领域,通常采用序列到序列(seq2seq)模型进行处理,主要包括至少一个编码器和至少一个解码器。seq2seq模型的主要原理是:将源语句切分成词序列,输入编码器,输出隐含层的向量;隐含层向量作为解码器的输入,可在每个时间步生成一个目标词汇,后一个目标词汇是基于隐含层和前一个输出的目标词汇来生成的,最终目标词汇序列就构成了翻译的目标语句。
通常,seq2seq模型进行自然语言处理时,模型运行的计算量非常大,以至于需要的处理时间较长,例如,基于Transformer模型在P4型号GPU上,翻译一句20个词的句子,大约需要1秒。这在动辄每秒几万翻译请求的业务场景中,无论从机器成本还是用户体验角度,都是难以接受的。
发明内容
有鉴于此,本公开实施例提供一种文本处理模型的运行方法、装置、电子设备、及存储介质,以降低GPU显存读写频率,能够提高运行效率。
本公开实施例的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开实施例的实践而习得。
第一方面,本公开实施例提供了一种文本处理模型的运行方法,所述文本处理模型包括至少一个编码器层和至少一个解码器层,包括:
获取输入文本向量;
将所述文本向量输入至少一个编码器层进行处理,以形成隐含层向量;
将所述隐含层向量输入至少一个解码器层进行处理,以生成输出文本向量;
其中,在所述编码器层和/或解码器层的数据计算过程中,调用组合核函数对数据进行处理,所述组合核函数包括至少两个基础核函数,所述基础核函数用于完成数据的数学级别计算,所述组合核函数用于完成数据的功能级别计算。
第二方面,本公开实施例还提供了一种文本处理模型的运行装置,所述文本处理模型包括至少一个编码器层和至少一个解码器层,其特征在于,所述装置包括:
输入获取单元,用于获取输入文本向量;
编码器层处理单元,用于将所述文本向量输入至少一个编码器层进行处理,以形成隐含层向量;
解码器层处理单元,用于将所述隐含层向量输入至少一个解码器层进行处理,以生成输出文本向量;
其中,所述编码器层处理单元在所述编码器层和/或所述解码器层处理单元在所述解码器层的数据计算过程中,调用组合核函数对数据进行处理,所述组合核函数包括至少两个基础核函数,所述基础核函数用于完成数据的数学级别计算,所述组合核函数用于完成数据的功能级别计算。
第三方面,本公开实施例还提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面中任一项所述方法的指令。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京字节跳动网络技术有限公司,未经北京字节跳动网络技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911222138.5/2.html,转载请声明来源钻瓜专利网。