[发明专利]一种结合Bert语言模型和细粒度压缩的汉蒙翻译方法在审
| 申请号: | 202011393610.4 | 申请日: | 2020-12-03 |
| 公开(公告)号: | CN112395891A | 公开(公告)日: | 2021-02-23 |
| 发明(设计)人: | 苏依拉;张妍彤;王涵;程永坤;仁庆道尔吉;石宝 | 申请(专利权)人: | 内蒙古工业大学 |
| 主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/126;G06F40/289;G06F40/30 |
| 代理公司: | 西安智大知识产权代理事务所 61215 | 代理人: | 段俊涛 |
| 地址: | 010080 内蒙古自治区呼*** | 国省代码: | 内蒙古;15 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 结合 bert 语言 模型 细粒度 压缩 翻译 方法 | ||
1.一种结合Bert语言模型和细粒度压缩的汉蒙翻译方法,其特征在于,包括:
步骤1,将蒙古文数据和中文数据进行预处理;
步骤2,采用Transformer翻译模型,所述Transformer翻译模型的主体是基于自注意力机制构造的编码器和解码器;利用已经预训练好的开源Bert语言模型,将Bert语言模型的输出直接当作每一层编码器中Bert注意力模块的输入,从而将中文的语义信息融入编码器,引入更多的语义信息;
步骤3,结合细粒度压缩方法,通过信息熵对信息表示进行细粒度压缩,从而达到加速推断的目的。
2.根据权利要求1所述结合Bert语言模型和细粒度压缩的汉蒙翻译方法,其特征在于,所述步骤1中,从蒙古文的语言特点出发,对蒙古文数据进行词根、词缀的切分,得到比词级粒度更小的粒度;对中文数据进行分字以及字粒度切分。
3.根据权利要求1所述结合Bert语言模型和细粒度压缩的汉蒙翻译方法,其特征在于,所述步骤2中,Bert语言模型由Transformer模型的Encoder堆叠而成,其目标是利用大规模无标注语料训练、获得包含丰富语义信息的表示。
4.根据权利要求1所述结合Bert语言模型和细粒度压缩的汉蒙翻译方法,其特征在于,所述步骤2中,首先将源语言句子输入已经训练好的开源Bert语言模型,输出的是包含该句子语义信息的语义表示向量,再将此向量融入编码器中。
5.根据权利要求1所述结合Bert语言模型和细粒度压缩的汉蒙翻译方法,其特征在于,所述Bert语言模型和细粒度压缩方法融入Transformer翻译模型。
6.根据权利要求5所述结合Bert语言模型和细粒度压缩的汉蒙翻译方法,其特征在于,所述步骤3中,将信息熵作为不同层的注意力权重所包含的信息量大小的衡量指标,通过细粒度压缩对解码器中每层注意力的查询表示Q和键表示K进行信息压缩,从而在译文质量不发生明显改变的情况下提升模型的推断速度。
7.根据权利要求6所述结合Bert语言模型和细粒度压缩的汉蒙翻译方法,其特征在于,对于一个随机变量X,信息熵的计算公式如下:
其中,E()是信息熵,P(·)为变量X的概率质量函数,G(·)表示所含信息量,xi是第i个事件;
第d个序列的概率质量函数表为:
其中,P(Ct)是概率质量函数,Ct代表t时刻句子序列在注意力操作中当前候选语言片段被选中的事件,fq和fk分别为注意力子层的输入,dk为压缩前查询表示Q和键表示K的维度,通过维度变换矩阵Wq和Wk得到Transformer翻译模型注意力层的查询表示Q和键表示K,直接以信息熵的均值作为模型某一层的权重信息量的衡量;
最终得到细粒度表示维度如下:
其中,表示细粒度表示维度,B(E)表示细粒度表示维度函数,λ为映射比例的下界,用来表示空间的压缩程度;E表示每一层的信息量,Emin和Emax为所有层中信息量的最小值和最大值,Emax计算公式如下:
Emax=ln(1/dk)
公式中dk为压缩前查询表示Q和键表示K的维度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于内蒙古工业大学,未经内蒙古工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011393610.4/1.html,转载请声明来源钻瓜专利网。





