Redian新闻
>
最新综述:等变图神经网络

最新综述:等变图神经网络

公众号新闻

©作者 | 王春辰

单位 | 北京邮电大学博士生

来源 | 北邮GAMMA Lab




本文旨在介绍近年等变图神经网络的进展,参考于最新的等变图神经网络综述。

许多科学问题都需要处理几何图形的数据。不像一般的图数据,空间几何图形呈现平移,旋转和翻转的不变形。研究人员利用了这种特性设计了几何等变图神经网络(GNNs),以更好地表征几何图形的运算和拓扑。基于必要但简明的数学基础,本文分析并将现有的方法分为三类。




等变

分别是输入向量空间和输出向量空间,它们都被赋予了一组变换 。如果当我们对输入应用任何变换时,输出也通过相同的变换或在某种可预测的行为下发生改变,那么函数 就称为等变。在形式上,
如果函数对于 G 中的任何变换可交换,那么函数 就是 G- 等变的,,其中 是输入和输出空间。
G 是一组具有二进制运算  的变换,并且满足以下属性:在关联组合下是封闭的,存在一个单位元,每个 G 中的元必须有一个逆。

根据群体的定义,我们在这里提供了一些例子:

  • 是一个由旋转和翻转组成的 n 维正交群。
  • 是一个特殊的正交群,它只由旋转组成。
  • 是一个 n 维的欧几里得群,它由旋转、翻转和平移组成。
  • 是一个特殊的欧几里得群,由旋转和平移组成。
群表示:一个群的表示是一个可逆的线性映射 ,其中以群元素 作为输入,并作用于一个向量空间 上,同时他是线性的:




几何等变图神经网络


2.1 几何图(空间图)


在许多使用图建模的场景中,我们处理的数据内容不仅包含拓扑连接和节点特征,也有某些几何信息。以一个药物分子为例,每个原子被分配一个标量特征 (e.g.、电 荷、质量等),以及一个几何向量 (e.g.、位置或速 度坐标)。


当通过 GNN 处理这类数据时,我们可以将等变的归纳偏差加入到图模型中。例如,当预测一个分子的能量时,我们需要输出是对几何向量的任何旋转不变的;然而,当预测分子动力学时,我们要求输出与每个原子位置的输入是等变的。为了更好地区分,本文中使用普通符号表示一般特征,用加粗符号表示几何特征。


等变图神经网络的邻域聚合和消息传递可以归纳为:



其中, 分别表示沿边 进行消息传递的标量输出和矢量输出, 分别是标量特征和几何向量的消息聚合函数。下图详细说明了上述等变消息传递协议。


下面我们将简单介绍一下三类等变图神经网络


2.2 不可约表示


根据表示理论 [Esteves,2020],紧群的线性表示可以通过不可约表示(或简称 irreps)的直接和表示,直至相似性变换。特别是对于群  ,irrep 是 的 Wigner-D 矩阵 ,其中正整数 。对于每个 表示,有


其中 是 Wigner-D 矩阵, 是考虑基变化的正交矩阵, 是沿对角线的矩阵的直接和或串联。通过这种方式,向量空间被划分为 l 个子空间,每个子空间由   转换,并且位于第 l 个子空间中的向量被称为 l 型向量。例如,在上述几何等变图神经网络的框架中,标量 是具有 H 通道的 0 型向量,而 是 1 型向量。这些向量通过张量积 相互作用,Wigner-D 矩阵的张量积通过 CG 分解产生 Clebsch-Gordan(CG)系数



构建等变消息传递层的最后一个方法是球谐波 ,它用作 的等变基。通过上述构建,[Thomas et al., 2018] 提出了满足 等方差的 TFN 层,



其中 表示节点 的几何向量的度为 是节点坐标(固定在所有层上), 是半径为 的可学习函数,过滤器 是球谐波和 CG 系数的线性组合,是自相互作用权重。


2.3 正则表示


另一个思路直接寻求使用正则表示从群卷积中获得等方差的解决方案 [Cohen and Welling,2016a],它将卷积过滤器定义为群的函数。然而,在处理连续和平滑群时,群卷积中的积分变得棘手,在这种情况下可以利用的一个可行工具是李代数。为此,[Finzi et al., 2020] 提出了 LieConv 通过提升(将 中的输入映射到群元素 )和卷积积分的离散化来计算群卷积 通过 PointConv 技巧。特别是,通过一致的符号,LieConv 的表述如下。



其中 的提升,对数将每个群成员映射到作为向量空间的李代数 g 上,而 是参数 MLP。很明显,LieConv 只指定节点特征 的更新,同时保持几何向量 不变。这意味着 LieConv 是不变的。


2.4 标量化


除了群表示理论之外,许多工作还采用了通过标量化对等方差进行建模的通用方法。通常,几何向量首先转换为不变标量,然后通过几个 MLP 来控制幅度,最后在原始方向上相加以获得等方差。这个想法最初在 SchNet [Schutt et al., 2018]和 DimeNet [Klicpera et al, 2020]中有所暗示。Radial Field [Kohler et al.,2020] 实现了等变版本,但它只对几何向量进行操作,而不考虑节点特征。EGNN [Satorras et al.,2021b] 通过灵活的范式进一步完善了这个想法。



其中 是几何向量 的标量化; 是任意 MLP。通过设置 ,EGNN 通过以等变但直接的方式联合传播节点特征 和几何向量



应用


等变 GNN 在各种类型的现实世界几何数据中具有广泛的应用,从物理系统到化学物质。数据集资源概览如下图所示。




参考文献

[Esteves, 2020] Carlos Esteves. Theoretical aspects of group equivariant neural networks, 2020.

[Thomas et al., 2018] Nathaniel Thomas, Tess Smidt, Steven Kearnes, Lusann Yang, Li Li, Kai Kohlhoff, and Patrick Riley. Tensor field networks: Rotation-and translation equivariant neural networks for 3d point clouds. arXiv preprint arXiv:1802.08219, 2018.

[Cohen and Welling, 2016a] Taco S. Cohen and Max Welling. Group equivariant convolutional networks. In ICML, 2016.

[Finzi et al., 2020] Marc Finzi, Samuel Stanton, Pavel Iz mailov, and Andrew Gordon Wilson Generalizing con volutional neural networks for equivariance to lie groups on arbitrary continuous data. In ICML, 2020.

[Sch¨utt et al., 2018] Kristof T Sch¨utt, Huziel E Sauceda, PJ Kindermans, Alexandre Tkatchenko, and K-R M¨uller.Schnet–a deep learning architecture for molecules and materials. The Journal of Chemical Physics, 148(24):241722, 2018.

[Klicpera et al., 2020] Johannes Klicpera, Janek Groß, andStephan G¨unnemann. Directional message passing for molecular graphs. In ICLR, 2020.

[K¨ohler et al., 2020] Jonas K¨ohler, Leon Klein, and Frank Noe. Equivariant flows: Exact likelihood generative learning for symmetric densities. In ICML, 2020.

[Satorras et al., 2021b] Victor Garcia Satorras, Emiel Hoogeboom, and Max Welling. E(n) equivariant graph neural networks. arXiv preprint arXiv:2102.09844, 2021.



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
AIGC最新综述:从 GAN 到 ChatGPT 的AI生成历史TKDE 2023 | 方面级情感分析(ABSA)最新综述:任务、方法与挑战公开课预告:Modulus 基于物理信息神经网络(PINN)加速流体力学模拟仿真仅用256KB就实现单片机上的神经网络训练王啸@北京航空航天大学:图神经网络的“共性”与“个性”10行代码搞定图Transformer,图神经网络框架DGL迎来1.0版本最近的挫败感最新综述:详细分析14种可用于时间序列预测的损失函数GNN如何建模时空信息?伦敦玛丽女王大学「时空图神经网络」综述,简明阐述时空图神经网络方法「图神经网络前沿进展与应用」美国最新综述:新冠药Paxlovid与常见心血管用药的相互作用和配伍禁忌美国塔霍湖(Lake Tahoe),享受生活最新综述:视频数据的无监督域适应最新综述:基于语言模型提示学习的推理【网恋情感剧接龙】2)何日君再来NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark民逼官改,官能真改?柏林—《The Giver》因果推理相关的图神经网络研究进展突发:乌克兰国防部大换血,防长换人,及鹅乌最新综述……有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA​ICLR 2023 | 标识分支结点,提升图神经网络对环的计数能力NeurIPS 2022 | 仅用256KB就实现单片机上的神经网络训练7 Papers & Radios | Hinton前向-前向神经网络训练算法;科学家造出「虫洞」登Nature封面WSDM 2023 | 学习蒸馏图神经网络业界首个适用于固体系统的神经网络波函数,登上Nature子刊首个在ImageNet上精度超过80%的二值神经网络BNext问世,-1与+1的五年辛路历程AAAI 2023 | DropMessage: 统一图神经网络中的随机删除Hinton最新研究:神经网络的未来是前向-前向算法|NeurIPS 2022特邀演讲首个在ImageNet上精度超过80%的二值神经网络BNext问世!Hinton最新演讲!一种新神经网络:前向-前向FF算法,论文已公开!Npj Comput. Mater.: 水粘度模拟—第一性原理-深度神经网络图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!NLP中关于数据增强的最新综述
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。