MLPInit:MLP的权重可以直接迁移到GNN上!一种简单的GNN训练加速方法
我们发现多层感知机(MLP)和图神经网络(GNN)的可训练的权重是可以共享的。所以我们想能不能使用训练好的 MLP 的权重直接应用到 GNN 上,因为 MLP 的训练非常快,如果权重可以直接迁移,那么就可以大大加速 GNN 的训练。
当我们把 MLP 训练好权重直接用到 GNN 上去做推理时,我们发现效果非常好。结果如下:
基于这个有意思的现象,我们提出了一种非常简单的 GNN 训练加速的方法, MLPInit。顾名思义, MLPInit 就是用训练好的 MLP 的权重去初始化 GNN,可以使得 GNN 又快又好地收敛, 如下图的结果:
一直以来,在大型图上训练图神经网络(GNN)非常复杂且耗时。这其中有稀疏矩阵乘法比较慢的原因。来自德州农工大学,SnapChat 和莱斯大学的研究者提出一个极简的加速方法,使用 MLP 的训练来加速 GNN 的训练。文章发表在 ICLR2023 上。
发表会议:
论文链接:
代码链接:
PPT链接:
为了方便研究者试用研究我们发现的现象,我们在开源的代码库中提供了几个独立的 Jupyter Notebooks,展示了 MLP 和 GNN 权重的迁移对比和 MLPInit 在 ogb-products 数据集上的结果。欢迎大家试用和反馈!
简介
在大型图上训练图神经网络(GNN)非常复杂且耗时。这归因于稀疏矩阵乘法引起的开销,在仅使用节点特征训练多层感知器(MLP)时则避开了这些开销。通过忽略图上下文,MLP 在图数据上简单且更快,但通常牺牲了预测准确性,限制了它们在图数据的应用。
我们发现,对于大多数基于消息传递的 GNN,我们可以通过设置相同形状的可训练参数,轻易地推导出一个具有等效可训练权重空间的 MLP(称之为 PeerMLP),这让我们好奇,直接使用已经完全训练的 PeerMLP 权重的 GNN 推理表现如何?令人惊讶的是,我们发现使用这种权重初始化的 GNN 显著优于它们的 PeerMLP,激发我们将 PeerMLP 训练作为 GNN 训练的初始化步骤。
为此,我们提出了一种非常简单,但效果极佳的 GNN 训练加速初始化方法,称为 MLPInit。我们在多个大型图数据集上的广泛实验验证了 MLPInit 可以加速 GNN 的训练(在 OGBN-Products 上加速高达 33 倍)并通常提高预测性能(例如,在 7 个数据集上的 GraphSAGE 节点分类上提高了高达 7.97%,在 4 个数据集上的链路预测上的 Hits@10 提高了高达 17.81%)。
主要贡献
方法:MLPInit
MLPInit 的基本思想非常简单:我们采用收敛的 PeerMLP 的权重来初始化 GNN,然后对 GNN 进行微调。具体而言,
1. 构建对应的 PeerMLP:为待训练的 GNN 创建一个具有相同可训练权重的 MLP;
2. 训练 PeerMLP 至收敛;
3. 用 PeerMLP 的收敛权重来初始化 GNN;
4. 对 GNN 进行微调。
我们方法的 python 风格的算法流程图如下:
实验
我们做了大量的实验来验证MLPInit的有效性。
第一, 我们对比了随机初始化的 GNN 和 MLPInit 的 GNN 的训练速度。我们计算了随机初始化的 GNN 达到最佳测试性能所需的训练周期。结果显示,MLPInit 可以显著减少 GNN 的训练时间。下表显示 MLPInit 通常可以使 GNN 的训练速度提高 2-5 倍,甚至在某些情况下超过 30 倍。
第二, 我们进行了实验,以展示所提出方法在节点分类和链接预测任务上收敛的 GNN 模型性能方面的优越性。下面两个表展示了 MLPInit 与随机初始化相比在节点分类和链接预测方面的性能提升。大多数情况下,MLPInit 提高了节点分类和链接预测任务的预测性能。
第三:我们通过实验来分析经过微调的 GNN 模型的收敛性。MLPInit 在 Loss Landscape 中为 GNNs 找到了更大的低损失区域。Loss Landscape 显示,MLPInit 的低损失区域在相同损失水平上更大,这表明使用 MLPInit 训练的模型的损失景观比随机初始化的模型具有更大的低损失区域。总之,MLPInit 帮助在 Loss Landscape 中为 GNNs 找到了更大的低损失区域。
总结
本文提出了一种简单而有效的 GNN 初始化方法,MLPInit,用于加速 GNN 的训练,该方法采用其收敛的 PeerMLP 的权重来初始化 GNN,然后微调 GNN。通过全面的实验证据,我们展示了我们所提出的方法在训练速度加速、下游任务性能提升以及对 GNN 的鲁棒性方面的优越性。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者