[发明专利]一种基于自注意力的生成式文本摘要方法有效

专利信息
申请号: 201910511656.2 申请日: 2019-06-13
公开(公告)号: CN110597979B 公开(公告)日: 2023-06-23
发明(设计)人: 田珂珂;印鉴 申请(专利权)人: 中山大学
主分类号: G06F16/34 分类号: G06F16/34;G06F40/284
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 林丽明
地址: 510275 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 注意力 生成 文本 摘要 方法
【权利要求书】:

1.一种基于自注意力的生成式文本摘要方法,其特征在于,包括以下步骤:

S1:建立基于自注意力机制的文本摘要模型,模型包括基于自注意力机制的编码器和基于注意力机制的解码器,其中编码器的参数被解码器共享;所述步骤S1的具体过程是:

S11:构建字词的向量表示层:先将文字转换成数字表示,即用向量表示层来完成;

S12:构建基于自注意力机制的编码器,编码器包括多头注意力层和全连接层,接收来自于向量表示层的向量,并提取其中隐藏的特征,以向量形式输出;

S13:构建基于注意力机制的解码器,解码器包括多头注意力层和全连接层,接收来自于编码器的特征,并根据此特征来生成摘要文本;

S2:建立文本摘要模型的对应的损失函数;所述步骤S2的具体过程是:

文本摘要模型的损失函数由负对数似然函数给出:

其中,为输入原文文本,为摘要序列,mn,似然函数表示在当前模型参数下,得到摘要序列的概率,而该概率,即在当前模型参数下,得到摘要序列中每个词的概率相乘:

S3:进行文本摘要模型的训练,并在目标文本数据集上测试;所述步骤S3的具体过程是:

S31:对于训练集中的输入原文文本,对其进行分词,每个词输入到向量表示层得到其对应的向量,并输入到编码器,编码器提取每个词的特征,对每个词产生一个向量,则对于原文序列有矩阵,对于训练集中的摘要序列,做相同的处理,得到矩阵表示;

S32:将S31得到的向量表示H和S,共同输入到解码器中,解码器来预测一个摘要序列;

S33:将和作为损失函数的输入,计算损失值,并进行梯度回传,以更新文本摘要模型参数,训练文本摘要模型;

S34:对于训练集中的所有数据,重复S31-S33,迭代10次左右,即可完成文本摘要模型的训练,将训练好的文本摘要模型保存。

2.根据权利要求1所述的基于自注意力的生成式文本摘要方法,其特征在于,用训练好的文本摘要模型在测试集上进行测试,生成测试集中每个输入文本对应的摘要序列,使用ROUGE评价方法来对生成的摘要序列质量进行量化评估。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910511656.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top