[发明专利]基于双向循环神经网络的神经机器翻译方法和系统在审
| 申请号: | 201811358954.4 | 申请日: | 2018-11-15 |
| 公开(公告)号: | CN109598002A | 公开(公告)日: | 2019-04-09 |
| 发明(设计)人: | 梁文新;王伟璇;刘馨月;张宪超 | 申请(专利权)人: | 重庆邮电大学 |
| 主分类号: | G06F17/28 | 分类号: | G06F17/28;G06N3/04;G06N3/08 |
| 代理公司: | 重庆辉腾律师事务所 50215 | 代理人: | 王海军 |
| 地址: | 400065 重*** | 国省代码: | 重庆;50 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 机器翻译 上下文信息 神经网络 双向循环 双曲正切函数 神经 目标语句 翻译 语句 自然语言处理 快速收敛 语句含义 收敛 | ||
1.一种基于双向循环神经网络的神经机器翻译方法,其特征在于,包括:
步骤1,编码器把源语句的词向量表示作为输入,通过双向循环神经网络获得源语句的语义表示,所述语义表示包括编码器中当前时刻正向循环神经网络的隐藏层状态和当前时刻反向循环神经网络的隐藏层状态
步骤2,编码器使用快速收敛特性函数对所述当前时刻正向循环神经网络的隐藏层状态和所述当前时刻反向循环神经网络的隐藏层状态进行连接计算,得到当前时刻编码器的隐藏层状态hi,并将当前时刻编码器的隐藏层状态hi发送给解码器;
步骤3,解码器根据所述编码器的隐藏层状态hi和之前时刻解码器的隐藏层状态sj-1计算上下文信息向量cj,并结合之前时刻的翻译输出yj-1计算当前时刻解码器的隐藏层状态sj;
步骤4,解码器根据所述上下文信息向量cj和当前时刻解码器的隐藏层状态sj,以及之前时刻的翻译输出yj-1,计算当前时刻的翻译输出yj,把所有时刻的翻译输出连接起来构成机器翻译的目标语句。
2.根据权利要求1所述的一种基于双向循环神经网络的神经机器翻译方法,其特征在于,步骤2中所述的快速收敛特性函数为双曲正切函数。
3.根据权利要求2所述的一种基于双向循环神经网络的神经机器翻译方法,其特征在于,步骤3所述解码器根据所述编码器的隐藏层状态hi和之前时刻解码器的隐藏层状态sj-1计算上下文信息向量cj,并结合之前时刻的翻译输出yj-1计算当前时刻解码器的隐藏层状态sj的方法包括:
计算上下文信息向量其中m是源语句的长度,hi表示当前时刻编码器的隐藏层状态,是与隐藏层状态hi相对应的权重值,其中sj-1为之前时刻解码器的隐藏层状态,a()为注意力机制对齐函数;
计算解码器的隐藏层状态sj=RNN(sj-1,yj-1,cj),其中sj-1为之前时刻解码器的隐藏层状态,cj为上下文信息向量,yj-1为之前时刻的翻译输出,其中RNN()表示循环神经网络的计算。
4.根据权利要求1所述的一种基于双向循环神经网络的神经机器翻译方法,其特征在于,步骤4计算所述当前时刻的翻译输出yj,把所有时刻的翻译输出连接起来构成机器翻译的目标语句的方法为:
解码器根据上下文信息向量cj,当前时刻的隐藏层状态sj和之前时刻的翻译输出yj-1,使用公式p(yj|x,y<j)=softmax(RNN(yj-1,sj,cj;θ))计算得到当前时刻的翻译输出yj,其中θ表示解码器中所有的参数,softmax()为归一化指数函数,RNN()为循环神经网络的计算,y<j为之前时刻的所有输出;机器翻译的目标语句的计算通过将所有翻译输出以条件概率建模生成。
5.根据权利要求1所述的一种基于双向循环神经网络的神经机器翻译方法,其特征在于,在步骤4计算当前时刻的翻译输出yj,把所有时刻的翻译输出连接起来构成机器翻译的目标语句之后还包括:
步骤5,根据平行语料库中的目标语句和机器翻译的目标语句对比,计算翻译的损失,然后使用随机梯度下降算法反向传播模型的损失值,并更新机器翻译的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811358954.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种信息显示方法、装置及设备
- 下一篇:一种AR翻译装置及方法





