[发明专利]基于多粒度互信息最大化的图分类方法及装置在审
| 申请号: | 202110780618.4 | 申请日: | 2021-07-09 |
| 公开(公告)号: | CN113449802A | 公开(公告)日: | 2021-09-28 |
| 发明(设计)人: | 刘苧;李东升;蹇松雷 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
| 代理公司: | 北京融智邦达知识产权代理事务所(普通合伙) 11885 | 代理人: | 董惠文 |
| 地址: | 410003 湖*** | 国省代码: | 湖南;43 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 粒度 互信 最大化 分类 方法 装置 | ||
本发明公开了一种基于多粒度互信息最大化的图分类方法及装置,通过对训练集中的图数据进行节点表征;将经过节点表征后的图数据输入基于多粒度互信息最大化训练层次化无监督图池化模型;将训练过程中损失函数l oss值最低的一轮epoch下的层次化无监督图池化模型作为训练好的层次化无监督图池化模型;待测试的数据集中的图数据输入训练好的层次化无监督图池化模型得到数据集中各图数据的图级表征;将图级表征输入到用于分类的网络模型中进行图分类。由于多粒度互信息最大化使得本发明可以有效提取图中子结构,并充分保留其结构及特征信息,从而使获得的图级表征充分保留了图结构及特征信息,使得图分类精度更高。
技术领域
本发明属于网络表征学习、图神经网络技术领域,尤其是涉及一种基于多粒度互信息最大化的图分类方法及装置。
背景技术
图分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。
近年来使用机器学习的方法对图像进行分类,但是在图像输入神经网络模型时,怎样对图像压缩降维进行表征,并且在压缩过程中尽可能多的保留图像特征,从而使图分类时能够更精确的对图像进行分类。
现有的图结构数据刻画了节点属性及其之间的显示依赖关系,近年来被广泛应用于自然语言处理、道路交通、生物信息学等领域。通过图神经网络(GNNs)对图结构数据进行节点表征学习,可以高效完成节点分类、链接预测等节点级任务。然而,节点级表征不足以有效支持图分类、图聚类等图级任务。因此需要将图神经网络与特定的选择策略结合,从而获得高质量的图级表征,从而提高图分类精度就显得尤为重要。
现有的图级表征中,图池化方法旨在通过对输入图进行结构压缩及信息提纯,从而获得更精炼的图级表征。鉴于其重要性,目前已有许多基于图神经网络的有监督图池化方法。这些方法大致分为两类:1、基于排序的方法,将节点按重要性顺序排列,最终只保留部分关键节点;2、基于聚类的方法,按照特定的分配规则,将节点划分到不同簇,每个簇被合并压缩为一个节点。虽然与最基础的均值池化及求和池化操作相比,上述方法都取得了更为显著的效果,但他们共同面临的问题是严重依赖于附加的图标签。这些图标签真实值通常来自于价格高昂的人工标注。有时甚至无法获得有现实意义的图标签。因此,无监督图池化方法相对而言具有更高的实用价值。
为了克服无法获取有效监督这一困境,学者们提出了一些基于图神经网络的无监督图池化方法。其中多数方法,如UGRAPHEMB、StructPool和MinCutPool,都是基于输入空间的节点表征定义训练目标。UGRAPHEMB引入图间信息(例如图编辑距离)来指导图级表征的学习,然而,研究表明对于超出16个节点的图,不可能在合理时间内计算出可靠、准确的图编辑距离。因此,图间信息与图标签真实值的获取成本不相上下,并不适合普遍推广。鉴于保留图的局部子结构信息有助于获得高质量的图级表征,StructPool和MinCutPool都遵循这一思想设计模型。他们将图池化定义为节点软聚类问题来捕获子结构信息。尽管取得了一定效果,受限于结构扁平化的约束,这些方法只能捕获单一级别的子结构信息,然而现实世界的真实图中通常存在不同粒度的层次化子结构。StructPool和MinCutPool无法进行层次化图池化,因而仍然无法生成高质量图级表征。
发明内容
本发明要解决的技术问题是怎样提高图分类的精度,提出了一种基于多粒度互信息最大化的图分类方法及系统。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于多粒度互信息最大化的图分类方法,包括以下步骤:
包括以下步骤:
步骤1:设置epoch数量和batch-size数量;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110780618.4/2.html,转载请声明来源钻瓜专利网。





