[发明专利]一种可扩展的基于神经网络的序列标注方法有效

专利信息
申请号: 201711026809.1 申请日: 2017-10-27
公开(公告)号: CN107894971B 公开(公告)日: 2019-11-26
发明(设计)人: 孙栩;张艺;杨洋 申请(专利权)人: 北京大学
主分类号: G06F17/21 分类号: G06F17/21;G06N3/02
代理公司: 11200 北京君尚知识产权代理有限公司 代理人: 司立彬<国际申请>=<国际公布>=<进入
地址: 100871 北*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 扩展 基于 神经网络 序列 标注 方法
【权利要求书】:

1.一种可扩展的基于神经网络的序列标注方法,其步骤包括:

1)创建一层叠n阶模型,该层叠n阶模型的训练过程为:首先根据训练语料中各标注单元的标签生成多个标签集合,包括一阶至n阶n个标签集合;其中,一阶标签集合为各标注单元的标签构成的标签集合;标注单元i的标签与其邻近n-1个标注单元的标签合并在一起作为标注单元i的n阶标签,n阶标签集合为各标注单元的n阶标签构成的标签集合;然后利用得到的各阶标签集合分别训练神经网络,分别得到n个模型,即一阶神经网络模型至n阶神经网络模型;

2)利用该层叠n阶模型对给定的序列(x1,x2,…xt,…xT)进行标签预测,得到一标签序列(y1,y2,…yt,…,yT);其中,yt表示第t个标注单元xt的标签。

2.如权利要求1所述的方法,其特征在于,优化标签序列(y1,y2,…yt,…,yT),即最大化整个标签序列(y1,y2,…yt,…,yT)的联合概率p(y1,y2,…yt,…,yT),得到最优的标注序列。

3.如权利要求2所述的方法,其特征在于,计算所述最大化整个标签序列(y1,y2,…yt,…,yT)的联合概率的方法为:对于每一阶神经网络模型,分别基于马尔科夫假设对该联合概率p(y1,y2,…yt,…,yT)进行分解,得到对应阶神经网络模型下的标签信息;其中,对于n阶神经网络模型,采用基于n阶马尔科夫假设的分解方式,即其中,p(y1,y2,…,yn)代表标签序列从第1个位置到第n个位置的子序列(y1,y2,…,yn)的局部联合概率,p(yT-n+1,yT-n+2,…,yT)代表标签序列从第T-n+1个位置到第T个位置子序列的局部联合概率,t=1,…,T-n+1;p(yt)表示第t个标注单元xt的预测标签的概率,由一阶神经网络模型输出得到;p(yt+1|yt)表示从第t个标签yt到第t+1个标签yt+1的转移概率,由二阶神经网络模型得到;p(yt+n-1|yt,yt+1,…,yt+n-2)表示当第t个词到第t+n-2个词的标签序列是(yt,yt+1,…,yt+n-2)时,第t-n+1个词的标签是yt+n-1的概率,由n阶神经网络模型得到;计算每一局部联合概率时,记录下条件概率所代表的转移前的具体标签组合,计算结束后,在最后一个标签组合代表的不同具体标签组合处有不同值,从最大值对应的具体标签组合处开始反向追踪,获取的标注序列作为所述最优的标注序列。

4.如权利要求1所述的方法,其特征在于,每一阶神经网络模型中每个标注单元保留概率最大的前k个标签及其概率。

5.如权利要求1所述的方法,其特征在于,一阶神经网络模型至n阶神经网络模型的模型结构均相同。

6.如权利要求1~5任一所述的方法,其特征在于,所述标注单元为词或字。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201711026809.1/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top