Redian新闻
>
​ICLR 2023 | ACMP: 具有引力斥力机制的Allen-Cahn消息传递

​ICLR 2023 | ACMP: 具有引力斥力机制的Allen-Cahn消息传递

科技



©PaperWeekly 原创 · 作者 | 王悦琳
单位 | 上海交通大学
研究方向 | 几何深度学习、图神经网络

论文标题:

ACMP: Allen-Cahn Message Passing with Attractive and Repulsive Forces for Graph Neural Networks

论文链接:

https://arxiv.org/abs/2206.05437


今天介绍的论文是接收于 ICLR 2023(spotlight)的论文。此文将粒子系统动力学理论与图神经网络中传统的消息传递机制相结合,在交互粒子系统框架下分析了图神经扩散模型(GRAND [1])的动力学特点,提出了兼具引力-斥力的消息扩散模型(ACMP)。

在引力-斥力的共同作用下,ACMP 可以避免图神经网络中常见的过度平滑(over-smoothing)问题,保持 Dirichlet 能量的严格正下界,进而加深网络。在恰当的排斥力作用下,ACMP 因可以产生类似于 Allen-Cahn 相变模型的双集簇现象而得名。




背景介绍


1.1 图神经网络中的消息传递

近年来,图形神经网络(Graph neural networks,GNN)以其在图结构数据上强大的学习和表达能力,成为深度学习的一大热点。神经消息传递(message passing)是一种聚合邻接节点信息来更新中心节点信息的范式,因简洁高效而被广泛应用。对于无向图 G 其更新范式如下:



其中, 表示结点 在第(k-1)层的特征; 表示从结点 到结点 的边特征; 表示一个可微、具有 (结点) 置换不变性的函数, 表示可微函数, 表示结点 的一阶邻域(one-hop neighbors)。该范式是 ACMP 模型依赖的基本框架。
1.2 交互粒子系统
交互粒子系统可以被认为是自然界和人类社会消息递送行为的另一种数学模型。该模型将个体抽象为粒子,将群体中的信息交互抽象为相互作用力,来模拟虫群或人类社会的集体行动。粒子方程有多种构造方式,根据需要,可以设计相应的粒子系统使得演化结果展现多簇或一致性。

这启发文章为图神经网络设计一个基于粒子系统的神经信息传递传播器,将结点特征看做粒子,边特征看做粒子之间的相互作用。而网络中的每个结点都与其邻居进行交互,使得整个网络成为一个系统,该系统的动力学过程构成网络中的信息传递。

1.3 GNN模块面临的问题
过度平滑:

过度平滑(oversmoothing)是近年来 GNN 领域广为关注的问题之一。受过度平滑效应的影响,经典的 GNN 模块如 GCN,GAT 的表现随着网络加深变得不在理想。简单地说,过度平滑是指,在 GNN 模块的多次迭代之后,随着不同结点的接收域变得越来越相似 图中所有结点的表示变得非常相似,结点特征变得“过度平滑”,影响认为效果。这造成 GNN 的层数难以加深。

Rusch 等人通过 Dirichlet 能量给出了过度平滑问题的数学刻画 [2]:关于图 G 的Dirichlet 能量定义为


而过度平滑现象来自 Dirichlet 能量随着层数的指数衰减。换言之,随着层数的增加,图的 Dirichlet 能量迅速衰减,最后降低到不足以支撑深层网络学习的地步,不同结点特征无法有效区分。
异质图:
改善异质图上 GNN 模块的表现是另一个人们关注的问题。异质图是指,图中的结点更多地与不同种类的结点建立边连接关系的图。对于一个图数据集,异种结点相连地越多,同种结点相连地越少,就意味着数据集的异质性越强。经典的消息聚合模块正向地接收所有邻居结点的信息(尽管权重可能不同),这暗含一种同质化的倾向,即认为邻居结点会展现更高的相似性。因此,尽管这些模块在同质性强的数据集上表现优异,在异质性强的数据集上却往往表现不佳。

粒子系统背景下的解释:
针对上述问题,文章从交互粒子系统的角度给出了新颖的解释。假设略去激活函数和参数矩阵的作用(就是说,取单位矩阵),仅从动力系统的角度考虑,Chamberlain 等人提出的图神经扩散方程(GRAND [1])是一个反应动力学特征,且能够概括 GCN,GAT 模型的例子。GRAND 的标量形式可以写作:

这时,如果将结点特征 视为单独的粒子 ,很容易发现特征的演化趋势:若 ,则 的速度方向朝向 。也就是说, 吸引。而相似度 是一个非负函数,因此,结点间的相似度 可以看作 之间的吸引力。这表明图中连通分支中的所有节点特征相互吸引。如果权重矩阵 是正随机的,可以证明特征的凸包不会随时间膨胀。若图中只有一个连通分支,则所有特征不断趋同,最后难以区分。
然而,只有吸引力的相互作用机制显然是不完整的。正如消息传播过程不只是采纳整合邻居的意见,有时候,消息传递是伴随着否定和对立的。负面信息在相反层面上具有价值。例如,在二分图的节点分类任务中,由于相邻的节点属于不同的类,可以把相邻消息称之为为负面信息,这种信息同样可以帮助分类。这种作用机制恰好和排斥过程吻合。因此,文章设计了可以同时表现正面信息和负面信息的消息传递网络 ACMP,能够容纳完整的引力-斥力交互作用。



模型架构

ACMP 的模型结构如下图所示:


首先,ACMP 模块的网络更新由一个时间步长的积分方程决定,方程的一步演化,意味着 message passing 的一次更新。ACMP 的动力学方程由两部分组成:刻画相互作用力的引力-斥力机制,和刻画势能作用的势能项。

引力-斥力结构下,不同种类的特征粒子倾向于相互排斥,而相似的特征粒子倾向于相互吸引。在消息传递的意义下,也就是说,特征信息的同种/异种性质得到增强,从而增强网络的信息处理能力,避免过度平滑问题,灵活适应同质图和异质图这两种不同的数据结构。

势能项的主要作用是防止粒子系统空间的无限膨胀。因为系统中存在排斥力,相互排斥的粒子如果始终保持排斥状态,随着时间推进,粒子直接会不断远离。从网络层面上说,特征向量的值会随着网络的加深不断增大,最后超出需要的范围。因此,引入一个井状的势能场,也就是说,在系统边缘的区域施加一个强位势,在系统中心施加弱位势,对维持系统的稳定方面可以起到积极的作用。

这个势能场的选择,在“井”状轮廓之外,可以是自由的。在文章中,简单起见,采用了双势能井“W”形结构:一方面,两侧的高位势保持了系统的稳定性,另一方面,中间的“W”形低位势在容许交互作用力为主导作用的状态下,对异种粒子的分离起到促进作用。

ACMP 的更新方程如下所示:


这里, 表示第 i 个结点的特征向量; 表示结点之间的边特征,根据需要,可以选择诸如 GCN 系数,GAT 系数或任何表示结点间相似度的系数。 是可学习参数, 表示超参数,哈达玛积(Hadamard product)表示所有运算是在 channel-wise 意义下执行的。 用来平衡和调节这两项的作用强度。右边的第一项对应相互作用力,第二项对应势能项,由双井形势能的梯度流得到。



实验结果

3.1 Dirichlet能量

首先用无向合成随机图说明 ACMP 的 Dirichlet 能量的演化。文章比较了消息传递传播器的性能:GCN、GAT、GRAND 和 ACMP。图中可视化了每层输出的 Dirichlet 能量。

3.2 参数 的作用
是在 GNN 中引入排斥力的关键, 越大,排斥力越强, 越小,吸引力越强。
当所有节点彼此吸引时,ACMP 在 Cora(橙色曲线)中表现最好。但在 Texas 数据集上(蓝色曲线),单纯的吸引力系统导致精度只有约 70%。随着排斥力增加,精度随之增加。


3.3 节点分类
下面两张表格分别展现了 ACMP 在同质性和异质性数据集上的测试结果,其中 Homophily level 表示数据集的同质程度。

3.4 不同的网络深度

随着网络的深入,ACMP 保持其模型性能,并使用相同的深度(最多 128 个)在所有列出的模型中实现最高的测试精度。


参考文献

[1] GRAND: Graph Neural Diffusion:https://arxiv.org/abs/2106.10934
[2] Graph-Coupled Oscillator Networks:https://arxiv.org/abs/2202.02296


更多阅读


#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
稀疏模型最新进展!马毅+LeCun强强联手:「白盒」非监督式学习|ICLR 2023​ICLR 2023 | 标识分支结点,提升图神经网络对环的计数能力ICLR 2023 | PatchTST: 基于Transformer的长时间序列预测ICLR 2023 | HomoDistil:蒸馏和剪枝在知识传递上的有机结合WPP收购北美数字机构Fēnom Digital;凯捷旗下The Works公司公布新任命(广告狂人日报)ICLR 2023 | H2RBox: 旋转目标检测方法国际要闻简报,轻松了解天下事(03[干货] simple 的比较级是 simpler 还是 more simple?巴黎,巴黎(3)ICLR 2023 | 3D UX-Net:超强的医学图像分割新网络​ICLR 2023 | GReTo:以同异配关系重新审视动态时空图聚合Can a Cleanup Campaign Cleanse This Misogynist Online Forum?生成扩散模型漫谈:从万有引力到扩散模型邓小平垂帘听政胜过于慈禧太后老 爸 阳 了!你猜,今天我和谁一起看世界杯的决赛!ICLR 2023 | GeneFace:高可泛化高保真度的说话人视频合成ICLR 2023 放榜,31.8%的接受率,你中了吗?国际要闻简报,轻松了解天下事(03​ICLR 2023 | LightGCL: 简单且高效的图对比学习推荐系统Eruope 2023转:2023 回国探亲(5)7 Papers & Radios | ICLR 2023杰出论文奖;微软GPT-4完整测评Alluxio跨集群同步机制的设计与实现2023 春 祝姐妹们周末快乐!人老珠黄,树冻林红ICLR 2023 | PromptPG:当强化学习遇见大规模语言模型ICLR 2023 | 高分论文!上海交大提出H2RBox:旋转目标检测新网络ICLR 2023有哪些值得关注的GNN相关论文?ICLR 2023论文列表公布,有机构一口气中20多篇ICLR 2023 放榜!31.8%的接受率,你中了吗?「甲子引力X智能新世代」2023中国科技产业新风向峰会将于4月25日在上海召开|甲子引力聚焦丨《提升村社头雁引领共富能力机制路径研究》 成果验收评审会成功召开友情转发 | 2023新春音乐会 | Berklee CSSA「传承与传递」明星祝福视频&节目单公布!加息对金融系统的影响机制——兼论中美货币政策机制的异同​ICLR 2023 | 基于知识图谱的多模态类比推理ICLR2023 | 论文列表公布,5000 篇投稿,整体接收率为 31.8%基于无标注网络驾驶视频,自动驾驶策略预训练新方法 | ICLR 2023留学生社招 | Johnson & Johnson强生社招岗位来袭,医药外企,世界五百强,女性友好【活动】2023新春音乐会 | Berklee CSSA「传承与传递」明星祝福视频&节目单公布!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。