[发明专利]一种基于双层注意力机制与双向GRU的文本关系抽取方法有效
| 申请号: | 201910710075.1 | 申请日: | 2019-08-02 |
| 公开(公告)号: | CN110502749B | 公开(公告)日: | 2023-10-03 |
| 发明(设计)人: | 王鑫鹏;李晓冬;吴蔚;徐建平 | 申请(专利权)人: | 中国电子科技集团公司第二十八研究所 |
| 主分类号: | G06F40/279 | 分类号: | G06F40/279;G06F16/35;G06N3/0464;G06N3/0442;G06N3/08 |
| 代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 向文 |
| 地址: | 210003 江*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 双层 注意力 机制 双向 gru 文本 关系 抽取 方法 | ||
1.一种基于双层注意力机制与双向GRU的文本关系抽取方法,其特征在于:包括如下步骤:
S1:对文本语料进行实体标注和关系标注;
S2:对标注数据进行预处理,生成实体抽取模型和关系抽取模型的训练集和测试集;
S3:构建关系抽取网络;
S4:分别进行实体抽取模型训练和关系抽取模型训练;
S5:将测试集数据首先输入实体抽取模型,得到实体识别结果;
S6:实体识别结果和测试集数据输入关系抽取模型,得到关系抽取结果。
2.根据权利要求1所述的一种基于双层注意力机制与双向GRU的文本关系抽取方法,其特征在于:所述步骤S1中采用人工方式进行实体标注和关系标注。
3.根据权利要求2所述的一种基于双层注意力机制与双向GRU的文本关系抽取方法,其特征在于:所述实体标注具体为:将实体标注数据转换为BMES实体标注体系,B表示实体的起始位置,M表示实体的中间部分,E表示实体的结束位置,S表示实体是一个单字实体;
所述关系标注具体为:将关系抽取数据转化为{实体1,实体2,实体1起始位置,实体1结束位置,实体1标签,实体2起始位置,实体2结束位置,实体2标签,文本段落}的形式。
4.根据权利要求1所述的一种基于双层注意力机制与双向GRU的文本关系抽取方法,其特征在于:所述步骤S3具体为:
S3-1:将实体位置信息和实体标签信息扩充字向量特征,实现文本信息的向量化,作为模型输入;
S3-2:模型网络第一层为双向GRU:
每个GRU单元分别包含包括一个重置门和一个更新门,更新门zt用于控制前一时刻输出ht-1与当前时刻输入xt中所含信息的保留程度,将其作为t时刻门控单元的输出ht;而重置门rt通过xt决定前一时刻ht-1中信息的遗忘程度,计算得到当前时刻的记忆以及经过重置门和更新门后的的当前时刻隐状态ht,t时刻GRU单元的更新门zt、重置门rt、新记忆最终隐状态ht的计算如下:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
其中,σ()为sigmoid非线性激活函数,用于增强模型对非线性数据的处理能力,σ(x)=1/(1+e-x)。*表示点乘,tanh(x)=(ex-e-x)/(ex+e-x),W、Wr、Wz是模型的权值矩阵,[]表示将两个向量连接。
S3-3:模型网络第二层为字级注意力层:
对于一个句子向量w={w1,w2,…,wT}将步骤S3-2中所得结果ht,通过下式进行处理,得到ut;
ut=tanh(Ww·ht+bw)
S3-4:第三层为句级注意力层:
将字级注意力层的输出s组成的句子特征值作为句级注意力层的输入,加入随机初始化的字上下文向量us进行共同训练,v是所有句子的向量和,具体公式如下:
ui=tanh(Ws·si+bs)
S3-5:第四层为Softmax分类器:
Softmax分类器将v映射到一组元素在[0,1]区间内的向量,向量和为1,如下式所示:
y=Softmax(v),y=[y1,y2,…,yN]and yi∈[0,1]and ∑yi=1
其中,N为关系标签数量,即关系抽取分类数量;
S3-6:经过上述四层网络最终生成分类结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第二十八研究所,未经中国电子科技集团公司第二十八研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910710075.1/1.html,转载请声明来源钻瓜专利网。





