[发明专利]利用外部信息的神经机器翻译系统及翻译系统的训练方法有效

专利信息
申请号: 201810582125.8 申请日: 2018-06-07
公开(公告)号: CN108845994B 公开(公告)日: 2020-05-01
发明(设计)人: 黄书剑;郑在翔;戴新宇;张建兵;尹存燕;陈家骏 申请(专利权)人: 南京大学
主分类号: G06F40/58 分类号: G06F40/58
代理公司: 北京林达刘知识产权代理事务所(普通合伙) 11277 代理人: 刘新宇
地址: 210023 江苏*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 利用 外部 信息 神经 机器翻译 系统 翻译 训练 方法
【说明书】:

本公开涉及利用外部信息的神经机器翻译系统及翻译系统的训练方法。利用外部信息的神经机器翻译系统包括:源端编码器神经网络,用于接收源端源语言的文字序列作为源端输入;外部信息编码器神经网络,用于接收目标语言的文字序列作为外部信息输入;目标端解码器神经网络,用于根据源端输入和外部信息输入,计算结合外部信息的翻译预测概率分布,根据结合外部信息的翻译预测概率分布生成源端源语言文字序列的译文作为目标端输出。本公开提供的翻译系统,在翻译过程中输入外部信息,为翻译提供参考,有效提高了翻译效率;本公开提供的翻译系统的训练方法,能够适应考虑外部信息的神经机器翻译系统。

技术领域

本公开涉及自然语言处理的机器翻译技术领域,尤其涉及一种利用外部信息的神经机器翻译系统及翻译系统的训练方法。

背景技术

近年来,随着计算机技术的迅猛发展,计算机硬件的算力不断提高,海量的数据得到广泛应用,机器学习方法特别是基于神经网络的深度学习方法取得了很大的发展和广泛的应用,这其中就包括基于神经网络的机器翻译方法,即神经机器翻译(NMT)。

在NMT领域中,比较典型的是基于带有注意力机制的编码器解码器架构(Attention-based Encoder-Decoder Architecture)的神经机器翻译模型。其工作过程如下:输入待翻译的源端句子的词向量序列x,即x={x1,…,xi,…,xI}。随之使用一个基于神经网络的编码器将其编码为I个隐层表示h={h1,…,hi,…,hI},接着使用一个基于神经网络的解码器进行解码。在每个解码时刻t,解码器首先读取1到t-1时刻生成的历史信息,然后通过注意力机制从源端的编码器的隐层表示h中获得当前时刻对应的源端上下文信息,从而生成目标端的隐层表示s={s1,…,st,…,sT}。进而通过T个目标端的隐层表示生成目标语言句子y={y1,…,yt,…,yT}。

现有技术对NMT的研究主要集中于通过设计更复杂的模型来增强翻译系统的性能,然而,随着NMT的发展,通过设计更好的模型,使之能更好地从给定的有限规模的训练样本中学习翻译能力已经逐渐达到了一个瓶颈,与此同时还伴随着模型复杂性的上升和模型规模的增大。

因此,如何在不过度增加模型复杂性的基础上提出一种提高翻译质量的翻译系统,是本领域亟待解决的问题。

发明内容

有鉴于此,本公开提出了一种利用外部信息的机器翻译方法、一种利用外部信息的机器翻译系统和该机器翻译系统的训练方法。

根据本公开的第一方面,提供一种利用外部信息的神经机器翻译系统,所述系统包括:源端编码器神经网络,用于接收源端源语言的文字序列作为源端输入;外部信息编码器神经网络,用于接收目标语言的文字序列作为外部信息输入;目标端解码器神经网络,用于根据所述源端输入和所述外部信息输入,计算结合外部信息的翻译预测概率分布,根据所述结合外部信息的翻译预测概率分布生成源端源语言文字序列的译文作为目标端输出。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201810582125.8/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top