[发明专利]一种结合可解释性的图表示学习的超参数优化方法有效
申请号: | 202010689045.X | 申请日: | 2020-07-16 |
公开(公告)号: | CN111931416B | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 王鑫;朱文武;范舒翼 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06N3/08 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 罗文群 |
地址: | 100084*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 结合 解释性 图表 学习 参数 优化 方法 | ||
本发明涉及超参数优化技术领域,特别涉及一种结合可解释性的图表示学习的超参数优化方法。本方法包括以下步骤:采样若干小规模的子图;根据完全可解释的图特征,分配有限的算力以及用于后续样本权重;对不同的超参数和图特征做去相关化;根据去相关化后的子图和部分原图计算结果,优化原图的图表示学习超参数。该方法采用了完全可解释的图特征,对算力进行合理分配,在超参数优化过程中对不同的超参数和图特征做了去相关处理,使得整体方法在保证性能的同时,具备很高的可解释性。
技术领域
本发明涉及超参数优化技术领域,特别涉及一种结合可解释性的图表示学习的超参数优化方法。
背景技术
图作为一种结构化的数据表现形式,对变量之间的相互联系具有非常强的建模能力。图表示学习通过学习图中节点的低维向量表示,来更好地理解图中各个节点之间的语义联系。自动机器学习包括了机器学习的各个阶段:数据处理、特征工程、模型选择、超参数优化和神经网络架构搜索,减轻了模型调优过程中对于人力的依赖和消耗。超参数优化通过选择最优的超参数配置来提高模型的性能。
但是当前超参数优化技术主要关注图像、文本等数据,且多采用黑盒的方式来进行优化,整体框架缺乏可解释性,不能有效地解释每次试验为什么采用特定的超参数取值,比如社交网络场景下的好友推荐,当需要进行超参数调优时,很难解释需要如何调节超参数,有待解决。相关技术中,(1)一种超参数随机搜索技术,其适用于各种形式数据的任务,但其性能一般,搜索到最优超参数需要很长的时间。(2)一种基于序列化模型的优化方法,但并没有针对图表示学习进行优化,且基于黑盒模型,不具备可解释性。(3)一种在图表示学习中利用采样子图信息的优化方法,但提取图特征的方式基于太强的物理假设,且没有解决不同超参数之间的互相影响问题,可解释性不强。
综上所述,目前,超参数优化在真实图表示学习场景下存在如下缺陷:
(1)技术多适用于文本、图像等类型的数据,对于结构化的图结构信息利用不足。现实场景中图的规模往往包含数十亿个节点和边,难以同时保证效率和性能。
(2)现有技术往往依赖于过强的数学或者物理假设,由于采用黑盒化的优化方式,严重缺乏可解释性,无法解释下一轮试验中超参数选择某个特定值的原因。
发明内容
本发明的目的是提出一种结合可解释性的图表示学习的超参数优化方法,以克服已有技术的缺点,在保证较高性能的同时,解耦不同超参数之间的相关性,使超参数优化方法具有更高的可解释性,可以解释每次试验超参数取特定值的原因。
本发明提出的考虑可解释性的图表示学习过程中确定最优超参数的方法,包括以下步骤:
(1)从待确定最优超参数的原图中采样多个子图;
(2)根据具有可解释性的特征,在子图上执行图表示学习算法,保留图表示学习算法的结果样本;
(3)从样本中消除图表示学习算法的超参数与子图特征之间的相关度;
设定循环次数K,初始化时设循环次数k为1;
设定有n个样本,其中每个样本包含p1个图表示学习算法的超参数和p2个子图特征,用一个n行(p1+p2)列的矩阵X表示超参数和图特征数据,X=[A,B],其中A为一个n行p1列的超参数矩阵,B为一个n行p2列的子图特征矩阵;
利用以下损失方程,求解样本权重γ,使得:
满足∑γ=diag(γi,…γn)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010689045.X/2.html,转载请声明来源钻瓜专利网。