[发明专利]一种基于深度学习的机器翻译设计方法在审

专利信息
申请号: 202211454321.X 申请日: 2022-11-21
公开(公告)号: CN116187350A 公开(公告)日: 2023-05-30
发明(设计)人: 王鹏飞;封晨;李一帆;杨文;孙冠群;吕晓钢;王通宇;武欣桐;杨琳;纪腾飞 申请(专利权)人: 天津光电通信技术有限公司
主分类号: G06F40/58 分类号: G06F40/58;G06F40/284;G06N3/0455;G06N3/08
代理公司: 天津中环专利商标代理有限公司 12105 代理人: 杨舒文
地址: 300211*** 国省代码: 天津;12
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 机器翻译 设计 方法
【权利要求书】:

1.一种基于深度学习的机器翻译设计方法,利用Django服务载体作为实现平台,其特征在于:该方法包括数据预处理,数据预训练以及数据微调;

步骤1,所述的数据预处理,是根据不同语言选择不同分词器对输入语料数据进行分词,并对分词后语料数据使用bpe分词方法将语料拆分为词元,对输入语料添加语言标记符,用于在混合语料中区分多种语言,使用RAS随机替换,将部分单词替换为其他语言的同义词;

步骤2,所述的数据预训练,是对经过数据预处理的多种语言的语料数据进行预训练,将语料数据置入Transformer网络结构,通过编码-解码的方式进行训练,获得预训练模型;

步骤3,所述的数据微调,是对预训练模型的效果进行微调,使用经过数据预处理的源语言与目标语言数据进行训练,得到微调模型,模型承担指定语言对、指定领域的翻译任务;

通过以上的步骤,实现深度学习模型的构建及对不同语言对的翻译模型的快速迭代。

2.根据权利要求1所述的一种基于深度学习的机器翻译设计方法,其特征在于:步骤2中所述的Transformer网络结构为十二个Transformer_Big结构,由十二个Block堆叠而成的编码器和解码器构成。

3.根据权利要求1所述的一种基于深度学习的机器翻译设计方法,其特征在于:步骤2中所述的Transformer网络结构引入Self-Attention机制建立Block之间的联系,采用一次性输入序列进行计算的设计模式,批量对多个输入进行计算。

4.根据权利要求1所述的一种基于深度学习的机器翻译设计方法,其特征在于:步骤3中所述的模型效果进行微调,是输入源语言与目标语言数据,在预训练基础上对模型效果进行微调,即首先使用大量的算力以及大量的多语种平行语料预先训练一个基础模型,然后以基础模型为出发点,通过少量单语,或者双语的语料对其进行微调,从而演化出适应于特定语言对的机器翻译模型。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津光电通信技术有限公司,未经天津光电通信技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202211454321.X/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top