[发明专利]基于预训练模型与微调技术的医疗文本关系抽取方法有效

专利信息
申请号: 201910311691.X 申请日: 2019-04-18
公开(公告)号: CN110134772B 公开(公告)日: 2023-05-12
发明(设计)人: 陈涛;吴明芬;杨开漠 申请(专利权)人: 五邑大学
主分类号: G06F16/332 分类号: G06F16/332;G06F16/36;G06F40/284;G06N3/0464;G06N3/0442;G06N3/08;G16H10/00
代理公司: 广州市红荔专利代理有限公司 44214 代理人: 吴伟文
地址: 529020 广*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明涉及一种基于预训练模型与微调技术的医疗文本关系抽取方法,包括医疗关系抽取语料的预处理、模型预训练、微调。本发明利用预训练模型作为一维卷积神经网络模型的输入,而现有技术利用词嵌入作为一维卷积神经网络模型的输入,预训练模型比词嵌入更有利于提高医疗文本关系抽取的性能;本发明将一维卷积神经网络模型与预训练模型结合使用,并使用一维卷积神经网络来微调预训练模型,有利于提高模型的性能;通过将一维卷积神经网络的训练误差反向传播到预训练模型来实现模型微调过程,其为动态的模型训练过程;而传统的方法将词嵌入与不同层的输入相结合,仍然从头开始训练主要任务模型,并将预先训练的嵌入视为固定参数,限制了其有用性。
搜索关键词: 基于 训练 模型 微调 技术 医疗 文本 关系 抽取 方法
【主权项】:
1.基于预训练模型与微调技术的医疗文本关系抽取方法,其特征在于,包括以下步骤:S1)、对医疗关系抽取语料进行预处理;S2)、利用大规模非结构化的未标注的中、英文医疗文献、病例文本训练预训练模型,具体为:利用性能优异的模型预训练方法BERT对对大规模非结构化的无标注的中、英文医疗文献、病历进行预训练;S3)、利用一维卷积神经网络对步骤S2)所产生的预训练模型进行微调,在微调过程中,训练出能够进行医疗关系抽取的深度神经网络模型,具体为:将一维卷积神经网络与BERT预训练得到的模型进行组合,在步骤S1)所产生的语料上对步骤S2)所产生的预训练模型进行微调,微调的过程即将一维卷积神经网络训练产生的误差反向传播给步骤S2)得到的预训练模型和一维卷积神经网络的各个层中,对预训练模型和一维卷积神经网络中的参数进行调整,最终训练出能够比较准确的进行医疗关系抽取的深度神经网络模型;S4)、对医疗文本关系抽取结果进行后处理;S5)、将训练成功的模型用于医疗关系抽取任务。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于五邑大学,未经五邑大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910311691.X/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top