[发明专利]利用多模型之间语义关联优化数据理解处理的方法在审
| 申请号: | 201910227646.6 | 申请日: | 2019-03-25 |
| 公开(公告)号: | CN109961153A | 公开(公告)日: | 2019-07-02 |
| 发明(设计)人: | 张兰;李向阳;袁牧 | 申请(专利权)人: | 中国科学技术大学 |
| 主分类号: | G06N20/00 | 分类号: | G06N20/00 |
| 代理公司: | 北京凯特来知识产权代理有限公司 11260 | 代理人: | 郑立明;付久春 |
| 地址: | 230026 安*** | 国省代码: | 安徽;34 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 数据理解 语义关联 原始数据 多段 优化控制规则 模型数据 训练数据 优化数据 输入数据选择 贝叶斯网络 决策网络 内容数据 强化学习 网络形成 语义识别 运行开销 配置的 最优化 标注 配置 网络 | ||
本发明公开了一种利用多模型之间语义关联优化数据理解处理的方法,包括:配置多个数据理解模型,选定多段原始数据;使用配置的全部数据理解模型分别为各段原始数据进行标注,得到每个数据理解模型对于每段原始数据的处理结果作为多段训练数据;使用所述多段训练数据对动态贝叶斯网络和强化学习决策网络进行训练,得到模型语义关联网络;利用所述模型语义关联网络形成多模型数据理解处理优化控制规则,使用该多模型数据理解处理优化控制规则根据输入数据选择最优的数据理解模型进行数据理解处理。该方法利用了模型间的语义关联来为每段未知内容数据进行理解模型的最优化选择,以最少的模型运行开销,实现对数据尽可能完善的语义识别理解。
技术领域
本发明涉及数据挖掘领域,尤其涉及一种利用多模型之间语义关联优化数据理解处理的方法。
背景技术
当前大量无标记、内容未知的原始数据需要采用机器学习的方式进行尽可能完善的识别和标记。然而如果对每段未知内容的原始数据逐一采用各类机器学习模型进行识别,将带来巨大的计算开销和不必要的计算资源浪费。对此,现有的优化数据理解处理的方法基本从如下几个方面入手:优化模型结构、压缩模型大小以及构建多任务模型。但这些方法均为专注于单一模型的优化,而忽略了大规模数据理解处理中通常需要采用的多个模型进行数据内容识别的问题,而如何优化基于多模型的数据识别理解目前尚无相关技术。
发明内容
基于现有技术所存在的问题,本发明的目的是提供一种利用多模型之间语义关联优化数据理解处理的方法,能对多个模型进行数据内容理解时,优化基于多模型的数据识别理解。
本发明的目的是通过以下技术方案实现的:
本发明实施方式提供一种利用多模型之间语义关联优化数据理解处理的方法,包括:
配置多个数据理解模型,选定多段原始数据;
使用配置的全部数据理解模型分别为各段原始数据进行标注,得到每个数据理解模型对于每段原始数据的处理结果作为多段训练数据;
使用所述多段训练数据对动态贝叶斯网络和强化学习决策网络进行训练,得到模型语义关联网络;
利用所述模型语义关联网络形成多模型数据理解处理优化控制规则,使用该多模型数据理解处理优化控制规则根据输入数据选择最优的数据理解模型进行数据理解处理。
由上述本发明提供的技术方案可以看出,本发明实施例提供的利用多模型之间语义关联优化数据理解处理的方法,其有益效果为:
通过动态贝叶斯网络和强化学习网络对多段训练数据训练得到模型语义关联网络,实现了利用自动标注的数据挖掘出模型间的语义关联,进而利用挖掘出模型间的语义关联实现多模型数据理解处理优化算法,能根据输入数据选择最优的数据理解模型进行数据理解处理,解决了大规模数据理解处理中,对每段数据无法实现自适应选择最佳的数据理解模型的问题,实现了以最少的计算开销对未知内容数据的尽可能完善的识别和理解。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的利用多个模型之间语义关联优化数据理解处理的方法流程图。
具体实施方式
下面结合本发明的具体内容,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910227646.6/2.html,转载请声明来源钻瓜专利网。





