ICLR 2023 | ACMP: 具有引力斥力机制的Allen-Cahn消息传递
论文标题:
ACMP: Allen-Cahn Message Passing with Attractive and Repulsive Forces for Graph Neural Networks
https://arxiv.org/abs/2206.05437
今天介绍的论文是接收于 ICLR 2023(spotlight)的论文。此文将粒子系统动力学理论与图神经网络中传统的消息传递机制相结合,在交互粒子系统框架下分析了图神经扩散模型(GRAND [1])的动力学特点,提出了兼具引力-斥力的消息扩散模型(ACMP)。
背景介绍
近年来,图形神经网络(Graph neural networks,GNN)以其在图结构数据上强大的学习和表达能力,成为深度学习的一大热点。神经消息传递(message passing)是一种聚合邻接节点信息来更新中心节点信息的范式,因简洁高效而被广泛应用。对于无向图 G 其更新范式如下:
这启发文章为图神经网络设计一个基于粒子系统的神经信息传递传播器,将结点特征看做粒子,边特征看做粒子之间的相互作用。而网络中的每个结点都与其邻居进行交互,使得整个网络成为一个系统,该系统的动力学过程构成网络中的信息传递。
过度平滑(oversmoothing)是近年来 GNN 领域广为关注的问题之一。受过度平滑效应的影响,经典的 GNN 模块如 GCN,GAT 的表现随着网络加深变得不在理想。简单地说,过度平滑是指,在 GNN 模块的多次迭代之后,随着不同结点的接收域变得越来越相似 图中所有结点的表示变得非常相似,结点特征变得“过度平滑”,影响认为效果。这造成 GNN 的层数难以加深。
模型架构
首先,ACMP 模块的网络更新由一个时间步长的积分方程决定,方程的一步演化,意味着 message passing 的一次更新。ACMP 的动力学方程由两部分组成:刻画相互作用力的引力-斥力机制,和刻画势能作用的势能项。
在引力-斥力结构下,不同种类的特征粒子倾向于相互排斥,而相似的特征粒子倾向于相互吸引。在消息传递的意义下,也就是说,特征信息的同种/异种性质得到增强,从而增强网络的信息处理能力,避免过度平滑问题,灵活适应同质图和异质图这两种不同的数据结构。
势能项的主要作用是防止粒子系统空间的无限膨胀。因为系统中存在排斥力,相互排斥的粒子如果始终保持排斥状态,随着时间推进,粒子直接会不断远离。从网络层面上说,特征向量的值会随着网络的加深不断增大,最后超出需要的范围。因此,引入一个井状的势能场,也就是说,在系统边缘的区域施加一个强位势,在系统中心施加弱位势,对维持系统的稳定方面可以起到积极的作用。
这个势能场的选择,在“井”状轮廓之外,可以是自由的。在文章中,简单起见,采用了双势能井“W”形结构:一方面,两侧的高位势保持了系统的稳定性,另一方面,中间的“W”形低位势在容许交互作用力为主导作用的状态下,对异种粒子的分离起到促进作用。
3.1 Dirichlet能量
3.4 不同的网络深度
参考文献
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者