Redian新闻
>
TPAMI 2022 | 利用子图同构计数提升图神经网络的表达能力

TPAMI 2022 | 利用子图同构计数提升图神经网络的表达能力

公众号新闻

©作者 | 桑士龙
来源 | MIND Laboratory


论文标题:
Improving Graph Neural Network Expressivity via Subgraph Isomorphism Counting

论文地址:

https://arxiv.org/pdf/2006.09252.pdf




论文介绍


尽管图神经网络(GNNs)在很多的应用中都取得了很大的成绩,但是最近研究发现 GNNs 捕捉底层图结构上仍然有缺陷。研究表明标准的 GNNs 表达能力受到 Weisfeiler-Leman(WL)图同构测试的限制,例如无法检测和计数图的子结构,然而在一些任务中的子结构往往与下游任务密切相关。因此,本文提出了图结构网络(GSN),是一种基于子结构编码的拓扑感知的消息传递方案,并分析了 GSN 的表达能力,证明了它比 WL test 的表达能力更强,还证明了它的普适性。


在复杂的网络中,子结构是十分重要的,但是大多数 GNNs 依靠多个消息传递过程来使该节点发现全图的结构。


本文提出了三个问题:


(1)如何超越各向同性,也就是局部对称和聚合函数


(2)如何确保 GNNs 知道图的结构?


(3)如何不牺牲同构性和 GNNs 泛化能力的前提下实现上述的目标?


作者首先通过在聚合函数中引入结构信息来打破局部对称问题:每个邻居(消息)的贡献根据其与节点中心的结构关系进行不同的转换,这些关系是通过计算某些子结构的外观来表示的。这样可以解决问题 1 和问题 2,而子结构对顶点的排列是不变的,所以 GNNs 对同构是不变的,因此可以解决问题 3。




基本概念

表示图 G, 是一张子图,其中 .


2.1 同构和自同构

如果存在邻接保留双向映射(adjacency-preserving bijective mapping) ,即若 ,使得 ,则称图 G 和图 H 同构,记为 。对于给定的一个小图 H,子图同构问题相当于找到图 G 中的一个子图 使得 ,而 H 的自同构则是将 H 映射到自身上,所有唯一的自同构集合形成了图的自同构群,它包含了图的所有可能的对称,记为 Aut(H)。

自同构群将顶点划分为 的不相交子集,这个子集称为“轨道”。这可以通过对顶点的结构角色进行划分,例如在图 1 中一条路径上的末端点,或者一个环上的所有顶点。


一个节点 的轨道,是它可以通过自同构映射到的节点集合


当所有轨道的集合作用于图 H 上时:


称为自同构的商。文中主要关注的是集合中唯一的元素 其中 是商的基数。
文中同样通过对边的自同构定义了边的结构角色,也就是从边到它自身的双向映射,保持了边的邻接性(如果两条边共享一个端点,则它们就是相邻的)。每个顶点自同构 g 通过将每条边 (u,v) 映射到 (g(u), g(v)) 来产生边自同构。文中同样构造了边自同构群,并推导了边集合在边轨道上的划分
2.2 Weisfeiler-Leman tests

WL test 是判断两个图是否同构的快速启发式,每个顶点 v 最初被分配一个颜色 ,并通过聚合邻居信息迭代改进:


其中:

表示一个多重集(允许元素重复的集合),N(v) 表示节点 v 的邻居。WL 算法在颜色停止变化时停止,并输出颜色的直方图。具有不同直方图的两个图不是同构的,但如果直方图相同,这两个图也有可能不同构。




实验过程


图由具有重复结构角色的节点或者边组成,但是 GNNs 中的节点被当做同样的角色进行操作,因此不知道节点的不同结构角色。尽管最初直觉认为 GNNs 可以通过构造更深层的架构来发现这些角色的不同,但实际上 GNNs 并不能达到这个目的,并且无视结构的属性,例如三角形或者更大的循环。因此,文中显式的将结构角色编码为消息传递的一部分。


定义一个小的连接图 ,对于每一个 ,首先找到他在 G 中的同构子图 。对于每一个节点 ,通过获取它在 H 中映射的轨道 f(v) 来推断它在 H 中的角色 。通过计算 v 中不同轨道的所有可能出现的情况,可以获得顶点 v 的结构特征


存在 |Aut(H)| 不同函数 f 可以将子图 映射到 H,但是他们中的任何一个都可以用来确定每个节点 v 的轨道映射。结合 H 中不同子结构和不同轨道计数,得到特征向量:


其中维度 同样可以通过计算边自同构轨道出现次数得到边特征:


3.1 结构消息传递


图子结构层定义为消息传递网络(MPNN),其中也传递了结构信息。每个节点 v 通过将之前的状态与聚合的消息结合起来更新自身的状态  


其中 是一个任意的函数逼近器,例如 MLP; 是一个邻居聚合函数; 是边特征。GSN-v 和 GSN-e 分别对应顶点计数和边计数。


3.2 GSNs的性能


文中给出了定理 3.1 已经它的证明。因为 GSN 模型包含 MPNN,因此其至少具有和 MPNN 一样的表达能力,也证明了 GSN 至少与 1 阶 WL test 具有同样的表达能力。



除了表达性能的证明外,文中还证明了 GSNs 的普适性:因为子结构集合 H 包含了所有大小为 k=n-1 的图,所以 GSN 可以区分所有大小为 n 的非同构图,因此具有普适性。


对于集合中的每个图 H,顶点结构标识符可以由相应的边标识符重构,因此可以证明对于每一个 GSN-v,都存在一个 GSN-e 可以模拟 GSN-v 的行为。



图 3 针对最坏的情况对计数算法的运行时间进行了定量分析,针对三种不同的图分布:分子、蛋白质联系图、社交网络。当图是稀疏的(对于前两种情况),匹配的数量很少,算法比最坏的情况要快得多,同时随着图 n 的大小,它的伸缩性更好。在社交网络图中,运行时间也比最坏情况更好。




实验结果

测试了 TUD 数据集上的图分类精度,在大部分数据集上 GSN 取得了最好的精确度。



测试 ZINC 数据集中的平均绝对误差(MAE),GSN 的平均绝对误差最小,且远小于 GCN。



图 5 比较了不同子结构族(循环、路径和非同构树:每个实验都使用家族中所有大小 ≤ k 的子结构)的训练和测试误差



GSN 在各种数据集上获得了较高的性能,并且常常优于其他传统的消息传递网络的性能。





总结


本文提出了一种设计结构感知图神经网络的新方法。由于传统 GNNs 在捕获图的重要拓扑属性方面存在局限性,作者制定了一种消息传递方案,增强了通过子图同构提取的结构特征。最后通过实验验证了这个模型可以改进表达能力,并在现实场景中获得了最先进的性能。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
解决神经网络的百年难题,MIT新模型Liquid CfC让模拟大脑动力学成为可能Hinton最新研究:神经网络的未来是前向-前向算法|NeurIPS 2022特邀演讲从多篇顶会论文看图神经网络黑盒攻击近期进展NeurIPS 2022 | 利用子图和结点的对称性提升子图GNN“我们的祖先到底是谁?为何智人胜出?”丨2022诺奖深入回答了这些问题。附Svante Pääbo趣闻AAAI 2022 | 正交图神经网络北邮王啸:挖掘图神经网络中的「万物真理」Hinton 最新研究:神经网络的未来是前向-前向算法用好这6个技巧,你的表达能力快速超越90%的人!NeurIPS 2022 | 仅用256KB就实现单片机上的神经网络训练再臨徵明之八——汎舟吹笛山水圖!神经网络的简单偏好一种基于神经网络的策略,可增强量子模拟大规模GNN如何学习?北邮最新《分布式图神经网络训练》综述,35页pdf阐述分布式GNN训练算法和系统上海交大副教授五年参禅:神经网络的简单偏好NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark疫苗的副作用。随笔ICML2022 | GNNRank: 基于有向图神经网络从两两比较中学习全局排序TPAMI 2022 | 自动搜索文本识别网络的高性能特征提取器巴黎凡尔赛游记 (四)(多图)汇编语言之母100岁逝世:曾和冯·诺依曼一起研究,退休后还在研究神经网络《西罗普郡一少年》:30:我不是第一个,还有别人ICLR'23截稿, 图神经网络依然火热 (附42 篇好文整理)NeurIPS 2022 | 参数集约型掩码网络:探索有限数量随机数的表征能力因果推理相关的图神经网络研究进展新课:英语演讲口语课上线!锻炼孩子的语言表达能力清华、上交等联合发表Nature子刊:「分片线性神经网络」最新综述!研究人员开发在小型设备上训练大型神经网络 保护隐私只需一次向前推导,深度神经网络可视化方法来了!(ECCV Workshops 2022)NeurIPS 2022 | 基于解耦因果子结构学习的去偏差图神经网络《山居续忆》:附录一:徐礼耕先生之回忆:(六) 民初在诸暨枫桥办新新丝厂及育婴堂经过古人类DNA与重症新冠有关?2022诺奖得主Pääbo,竟是前诺奖得主私生子清华&上交等发表Nature子刊!分片线性神经网络最新综述!有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。