[发明专利]一种基于RoBERTa和启发式算法的实体链接方法在审

专利信息
申请号: 201911393144.7 申请日: 2019-12-30
公开(公告)号: CN111125380A 公开(公告)日: 2020-05-08
发明(设计)人: 苏锦钿;罗达;毛冠文 申请(专利权)人: 华南理工大学
主分类号: G06F16/36 分类号: G06F16/36;G06F40/295
代理公司: 广州市华学知识产权代理有限公司 44245 代理人: 陈宏升
地址: 510640 广*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 roberta 启发式 算法 实体 链接 方法
【权利要求书】:

1.一种基于RoBERTa和启发式算法的实体链接方法,其特征在于,包含以下步骤:

S1、使用基于预训练语言模型RoBERTa的序列标注模型对问题进行标注,RoBERTa模型通过堆叠12层transformer结构以获取问题中多层次的语法语义信息;而transformer中通过多头注意力机制获取问题中每个单词基于上下文的动态表示,进而获取问题中的实体提及范围;

步骤S1中,所述序列标注模型,其输入是问题中的每个单词,输出是问题中每个单词是否提及到知识库实体的0/1分类;所述序列标注模型包括以下三层:

(1)输入层:对于输入问题中的单词序列,输入层使用双字节编码,将单词序列编码编码成一系列子词,并将编码结果传递到预训练RoBERTa层;

(2)预训练RoBERTa层:该层首先将输入层的每一个子词其转化为2个向量,分别为:a、词向量:根据词表将每个单词映射成一个768维的词向量;b、位置向量:根据每个单词在问题中的位置,将其位置信息映射成一个768维的位置向量,并将上述两个向量每个元素相加作为子词的向量表示;然后,利用堆叠12层的transformer结构,让每个输入子词获得句子级别的上下文信息;

(3)输出层:该层使用一个全连接神经网络,将包含上下文信息的子词表示转化为一个2维表示,并将子词合并成原始单词,从而得到每个单词是否提及到知识库实体的0/1分类;

S2、获得实体提及范围后,使用一个启发式算法,直接将该实体提及与知识库实体进行匹配,完成实体链接;

所述步骤S2具体如下:

S201、将问题中被标注为1而且相邻的单词合并起来,得到字符串S;若识别出多个候选实体字符串,则取最后一个;

S202、在知识库查询全名或别名为字符串S的所有实体,并将相关实体添加到候选实体集H中;

S203、若在步骤S202中查询不到相关知识库实体,则以字符串S为中心窗口,在距离1-2个单词内进行左右滑动,每滑动一次,得到一个新的字符串S`,然后重复步骤S202,直至获取实体集合H

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911393144.7/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top