[发明专利]一种用于NER迁移学习的方法、系统、设备及存储介质在审
| 申请号: | 202111499402.7 | 申请日: | 2021-12-09 |
| 公开(公告)号: | CN114169348A | 公开(公告)日: | 2022-03-11 |
| 发明(设计)人: | 刘权;王永超;郭武;陈志刚 | 申请(专利权)人: | 中国科学技术大学 |
| 主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/295;G06F40/211;G06F40/30;G06N20/00 |
| 代理公司: | 北京凯特来知识产权代理有限公司 11260 | 代理人: | 郑立明;韩珂 |
| 地址: | 230026 安*** | 国省代码: | 安徽;34 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 用于 ner 迁移 学习 方法 系统 设备 存储 介质 | ||
1.一种用于NER迁移学习的方法,所述NER表示命名实体识别,其特征在于,包括:
获取已标注的源语言训练语料;
利用翻译模型将已标注的源语言训练语料翻译为目标语言训练语料;
将已标注的源语言训练语料与目标语言训练语料输入至多语种预训练模型,通过对比学习的方式进行源语言训练语料与目标语言训练语料之间对齐,通过跨越注意力的方法,将源语言训练语料的知识迁移到目标语言训练语料;利用对比学习的损失与跨越注意力的方法的损失构建损失函数对所述多语种预训练模型进行训练。
2.根据权利要求1所述的一种用于NER迁移学习的方法,其特征在于,所述已标注的源语言训练语料包括:源语言的NER标注数据。
3.根据权利要求1所述的一种用于NER迁移学习的方法,其特征在于,所述利用翻译模型将已标注的源语言训练语料翻译为目标语言训练语料包括:
利用翻译模型先将源语言训练语料转换为训练句式,再根据训练句式结合设定字典进行回填映射,获得目标语言训练语料。
4.根据权利要求1所述的一种用于NER迁移学习的方法,其特征在于,所述通过对比学习的方式进行源语言训练语料与目标语言训练语料之间对齐包括:
将源语言训练语料和目标语言训练语料中对应的句子分别记为si与句子si与的语义相同,同时,设置语义与句子si不同的目标语言句子,记为
将多语种预训练模型中的token平均用于表示一个句子的语义表示向量,表示为:
ci=mean(Mbert(si))
其中,Mbert()表示获取到一个句子的每一个token的嵌入向量,token表示一个词,mean表示对所有token取平均,ci、与分别表示句子si、与的语义表示向量;
在每一批数据中,使用对比学习损失进行跨语种间的对齐,表示为:
其中,表示ci与的相似度,e表示自然常数,τ表示温度系数,i、j均表示句子的序号,N表示一批数据中句子数量。
5.根据权利要求1所述的一种NER迁移学习的方法,其特征在于,所述通过跨越注意力的方法,将源语言训练语料的知识迁移到目标语言训练语料包括:
将源语言训练语料和目标语言训练语料中对应的句子串联,并加入源语言训练语料中相应句子对应的标签,对所述多语种预训练模型进行训练,训练时,逐渐剔除源语言训练语料;跨越注意力的方法的损失记为lossmul_cross。
6.根据权利要求1所述的一种NER迁移学习的方法,其特征在于,该方法还包括:引入多语种预训练模型自身的预训练任务目标的损失,即掩码损失,表示为:
lossLM=LMMbert(P(wi|w1,...,wi-1,wi+1,...,wn))
其中,w表示一个词,角标表示词的序号,n表示句子中的词数目;所述掩码损失的定义为:句子中第i个词的预测需要考虑句子中其余n-1个词的权重;
训练总损失函数为:
loss=lossCE+lossmul_cross+lossLM
其中,lossCE、lossmul_cross分别为对比学习的损失、跨越注意力的方法的损失。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111499402.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种掺有赤泥的充填材料及其制备方法
- 下一篇:金属产品的制造方法以及金属产品





