[发明专利]融入源语言词级信息的汉越低资源跨语言摘要方法在审

专利信息
申请号: 202210757165.8 申请日: 2022-06-30
公开(公告)号: CN115034238A 公开(公告)日: 2022-09-09
发明(设计)人: 高盛祥;李小波;余正涛 申请(专利权)人: 昆明理工大学
主分类号: G06F40/58 分类号: G06F40/58;G06F40/284;G06N3/04;G06N3/08
代理公司: 昆明隆合知识产权代理事务所(普通合伙) 53220 代理人: 何娇
地址: 650500 云南*** 国省代码: 云南;53
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 融入 语言 信息 汉越低 资源 摘要 方法
【权利要求书】:

1.融入源语言词级信息的汉越低资源跨语言摘要方法,其特征在于:所述方法的具体步骤如下:

Step1、语料预处理:进行越南语数据采集,采集到的数据通过预处理得到不同规模的平行训练语料、验证语料和测试语料,用于模型训练、参数调优和效果测试;

Step2、源语言词级信息提取:提取器对源语言文档的每个词进行一个打分,提取器首先使用卷积神经网络对每个词进行表征,接着利用循环神经网络对表征后的词进行打分,提取出重要的、关键的词级信息;

Step3、融入源语言词级信息的汉越跨语言摘要模型构建:将机器翻译和单语摘要任务与跨语言摘要任务联合训练,并将提取器提取出源语言词级信息融入到跨语言摘要的生成过程中,使用Step1的语料作为模型输入,产生最终的摘要。

2.根据权利要求1所述的融入源语言词级信息的汉越低资源跨语言摘要方法,其特征在于:所述Step1的具体步骤为:

Step1.1、把越南新闻网站作为数据来源进行越南语数据采集;

Step1.2、而对应汉语摘要的构建,首先利用谷歌翻译工具将采集到的越南语摘要Svi翻译成汉语摘要Szh,然后将翻译的结果反向翻译回越南语摘要S0vi;处理后的数据对满足ROUGE-1(Svi,S0vi)>T1和ROUGE-2(Svi,S0vi)>T2,T1设置为0.5,T2设置为0.2;最后,构建伪平行语料对的训练集、伪平行语料对的验证集、伪平行语料对的测试集。

3.根据权利要求1所述的融入源语言词级信息的汉越低资源跨语言摘要方法,其特征在于:所述Step2的具体步骤如下:

Step2.1、提取器的目标是将源语言文本里的词级信息提取出来,即根据每个词对摘要生成的影响,给每个词进行一个权重分配,将一篇源语言文本输入到提取器,首先使用时间卷积神经网络模型得到每个词的表征rj,将每个词的表征rj输入到双向LSTM-RNN即LSTM-Decoder得到每个词进一步的表征hj;然后,提取器添加了另一个LSTM-RNN即LSTM-Decoder来训练指针网络,最终,每个词的得分qi计算如下:

其中,公式里et是通过glimpse operation的输出得到的:

在公式(3)中,zt为LSTM-Decoder的输出,vp、Wp1、Wp2、vg、Wg1、Wg2均是提取器模型可训练的参数;在每t个时间步,LSTM-Decoder执行2-hop注意机制:首先通过关注hj获得上下文表征et,然后再次通过关注hj以获得每个词最终的得分,其中,jt表示在时间步长t时选择的词,jk表示在时间步长k时选择的词。

4.根据权利要求1所述的融入源语言词级信息的汉越低资源跨语言摘要方法,其特征在于:所述Step3的具体步骤如下:

Step3.1、将越南语源语言文本输入编码器,得到越南语文本的表征;为了使编码器能够识别与摘要最相关的信息,首先,使用提取器来预测输入的源语言文章的每个词成为摘要的概率权重,即每个词的得分qi;然后,在模型的编码器E上附加了一个额外的输出层,它预测了在摘要中包含第i个词的概率pi;为了使提取器提取的源语言词级信息融入到跨语言摘要的生成过程中,采取的策略是最大限度地减少qi和pi之间的差异;对于模型编码器和提取器之间的交互,使用以下损失函数:

其中,L表示源语言文章中词的个数;

Step3.2、解码器的目标是生成中文摘要为了更好的联合训练单语摘要任务和跨语言摘要任务,共享整个解码器D1的参数;具体而言,将源语言摘要和目标语言摘要拼接起来一同输入解码器中:

其中,[BOS]和[EOS]分别是输出摘要的开始和结束标签,[LSEP]是将源语言摘要和目标语言摘要区分的分隔符;解码器首先生成源语言摘要ysrc在此基础上,生成目标语言摘要ytgt这样,将不同语言摘要之间的关系联系起来,实现知识的转移;使用以下损失函数:

在公式(8)中,n和表示源语言摘要中词的个数,n′表示目标语言摘要中词的个数,m表示每个样本的编号,表示源语言摘要中第i个词,表示源语言摘要中前i个词,不包括第i个词;表示目标语言摘要中第i个词,表示目标语言语言摘要中前i个词,不包括i个词;

Step3.3、由于跨语言摘要被认为是一种特殊的机器翻译,机器翻译的信息压缩比是1:1,跨语言摘要的信息压缩比是n:1;所以把机器翻译作为联合训练任务,这样在跨语言摘要生成的过程中,更好的解决“跨”的过程;用构建的源语言摘要和目标语言摘要作为训练编码器E和解码器D2的训练集;使用如下的损失函数:

为了更好的利用机器翻译任务来帮助跨语言摘要生成,做了两方面的工作;第一,共享了两个解码器D1和D2的底层参数,顶层参数则分别进行了训练;第二,采用交替训练策略,用固定数量的小批量数据优化每个任务,以联合训练跨语言摘要和机器翻译;

Step3.4、最终的损失函数如下:

Lθ=Lcls+Lmt+λLdis (10)

这里,λ是个超参数,在实验里,设置为10,最终的训练目标由两个部分构成;第一,在构建的语料库中抽取一个批次用Lmt来训练编码器E和解码器D2;第二,在构建的语料库中抽取一个批次利用Lmt+λLdis来训练E和解码器D1

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于昆明理工大学,未经昆明理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210757165.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top