Redian新闻
>
​ICLR 2023 高分论文 | 基于子图草图的图神经网络用于链路预测

​ICLR 2023 高分论文 | 基于子图草图的图神经网络用于链路预测

科技



本文介绍了一项关于链路预测方向的研究,该论文在 openreview 上分别得到了 10, 8, 8, 8 的评分。作者研究了基于子图的用于链路预测(LP, Link Prediction) 方法,提出了一个新奇、高效的全图 GNN 模型。


论文标题:

Graph Neural Networks for Link Prediction with Subgraph Sketching

论文链接:

https://arxiv.org/abs/2209.15486

代码链接:

https://github.com/melifluos/subgraph-sketching




研究背景

链路预测问题有着许多实际的应用。比如,推荐系统,药物发现和知识图结构等。GNNs(Graph Neural Networks),尤其是 MPNNs(Message-Passing Neural Networks),在图和结点级的任务表现出色,但是在链路预测问题上表现不佳,甚至不如简单的启发式算法。

在链路预测问题上,MPNNs有一些问题。一是由于消息传递等价于 WL(Weisfeiler-Leman)图同构测试,普通的 MPNNs 没能力三角计数、计数公共的邻居或者计算简单的启发式。二是由于基于 GNN 的链路预测方法结合置换等变结构的结点表征,这使得结点 u 与其他的自同构结点有相同的表征,从而忽略了像结点间的距离等重要特征。

针对上述的问题,一些方法被提出来增强 GNN 的表达力,如增加不同结点 ID,结构计数等。然而,增加结点 ID 有着泛化、训练收敛的问题,结构计数需要预训练,开销大。受到链路预测启发式表现优异的灵感,SGNN(Subgraph GNNs)被提出去学习链路预测的启发式。

但是 SGNN 也面临着一些问题。一方面,构建子图开销大且难以并行;另一方面,由于需要构建子图,每一步推理的开销较大。



分析SGNN

SGNNs 可以分解为四个步骤,提取结点对的子图,用结构特征增强子图结点,通过 GNN 传播特征,使用读出(readout)函数链路预测。受到 SGNN 表现优异的启发,作者对上述部分进行了深入研究。
2.1 结构特征

由于 GNN 无法区分自同构结点,结构特征被构建增强 GNN 的表达能力。作者首先在 Cora、Citeseer 和 Pubmed 数据集上实验分析了 0-1 编码(ZO, Zero-One Encoding)、双半径结点标签编码(DRNL, Double-Radius Node Labeling)和 距离编码(Distance Encoding)三种主流的结构特征。

由 Figure 2(a)可以看出结构特征对于链路预测任务是重要的。基于 DRNL 出色的表现,作者进一步分析了不同最大距离 r 下,DRNL 结构特征的重要性(如下图)。作者发现对预测表现贡献最大的是距离近的结构特征。

2.2 传播/GNN
通常在 SGNNs,结构特征与结点特征是一起传播的。如下图所示,作者实验发现如果用 MLP 处理结构特征而不与结点特征一起传播,模型可以表现更好。作者尝试不传播原始结点特征,效果并不如意,但是可以通过预传播原始结点特征恢复模型表现。

2.3 读出/ 池化函数
对于 SGNNs,读出函数可以选择池化子图中所有结点表征后过 MLP 或者使用边池化(通常用哈达玛积)。作者对比了两种读出函数,发现边池化效果要好于图池化,实验结果如 Figure 2(b)所示。
2.4 分析总结

经过上述的实验,作者认为:

  1. 结构特征带来很大的提升。

  2. 嵌入结构特征并在 SGNN 中传播,这种方式在效率和表现都不是最好的。
  3. 大多数重要的结构特征位于最短的距离。
  4. 对于读出函数,边等级的池化函数效果要好于图等级的池化函数。



方法介绍
通过上述的实验与分析,作者认为如果必要的结构特征信息可以被编码在节点中,那么就无需为每对关联生成子图。作者设计了一个逐结点子图的草图来估计结构特征的全图 GNN 模型,从而避免构建子图。
3.1 结构特征计数
对于链接 ,距离 结点为 ,距离 结点为 的结点个数 。为了确保计算开销,作者在大小为 的接受域中计算该结点个数。为了减轻信息的丢失,作者计算了距离 结点为 ,距离 v 结点长度大于 的结点个数,。Figure 6 展示了在大小为 2 的接受域中,两个结构特征与 结点邻居的关系。
作者进而得到如下关系式:

其中, 是与结点 距离不超过 的邻居个数。
通过上式,作者敏锐的捕捉到了邻居计数中计算冗余,并使用基于统计、哈希的 Hyperloglog 和 MinHash 算法估算 ,而不用显示的创建子图。这便是逐结点子图的草图,也解释标题中草图的由来。
3.2 基于哈希高效链路预测
作者进一步提出了 ELPH 模型(ELPH, Efficient Link Prediction with Hashes)。它的特征传播满足标准 MPNN 的范式:

其中, 是学习函数, 是一个局部置换不变聚合函数, 是原始结点特征, 分别是 MinHashing 和 Hyperloglog 单结点的草图。如上述公式,通过 MinHashing 和 Hyperloglog 单结点的草图信息, 被估计,然后将估计的结构特征融合入消息传递中,从而免去了为每个关联创建子图,大大节省了计算开销。
最后, 的关联概率被得到:
其中, 是接受域范围, 是一个 MLP, 是逐元素积。
3.3 利用预处理加速推理
由于显存容量是有限的,而现实里大规模的数据比比皆是,作者从大规模数据角度进一步增强 ELPH。由前述实验可知,嵌入结构特征并在 SGNN 中传播在效率和表现都不是最好的,而预传播结点特征表现很好。于是,作者提出了 ELPH 大尺度版本 BUDDY,使用了预传播结点特征与预计算结构特征来进一步加速模型推理。



模型表现

作者最后在多个尺度的数据集将 ELPH 和 BUDDY 与启发式算法、传统 GNNs、主流 SGNNs 等方法进行对比。如下图可见,ELPH 在一般的数据集上表现优异,而 BUDDY 几乎超过了所有对比方法。




文章总结

这是一篇非常高质量的图神经方面的论文。首先,针对 GNNs 在链路预测任务表现不佳的现象,作者分析了最先进的链路预测方法,确定每个部分的贡献并得到了有趣的结论。其次,作者敏锐的捕捉到基于子图的邻居计数中的计算冗余,并通过 Hyperloglog 和 MinHas估计结构特征。然后,作者设计智能、高效的全图 GNN 模型,同时考虑了大尺度数据集的情况。最后,多个数据集上的表现与理论分析都体现了该模型的优异。

合作联系: [email protected]



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Nat. Commun. | 浙江大学郭国骥/韩晓平/王晶晶团队基于单细胞图谱和人工智能神经网络的基因组变异解码框架马斯克机器人大进化!全新技能解锁,启用端到端神经网络沁园春 夏至与端午NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer图神经网络还有搞头?沁园春 午后雷鸣用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究上海交大团队发现频率原则,开启理解神经网络的新方向ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出!当我们说起神经网络的等变性,我们在谈论什么?2023 夏 北海道吃喝之旅MIT研究人员将Transformer与图神经网络结合,用于设计全新蛋白质5103 血壮山河之武汉会战 浴血田家镇 11ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出马库斯总结16项「可信AI」要求,符号主义+神经网络携手打造AGI!40年前的Cyc成版本答案特斯拉官方解释:FSD不使用高清地图,靠的是神经网络和海量数据减肥困难的原因找到啦!Nature研究揭示肥胖损害人类海马体中的促食欲神经网络,或为极具潜力的肥胖治疗新靶点!ICLR 2023 | 神经规范场:渲染引导空间规范变换图神经网络的底层数学原理总结ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响2023 查尔斯河国庆夜的烟火2023 加拿大森林大火纪实AI「心灵之眼」被看透!大改神经网络,模型生成背后逻辑首现【仲夏风轻】2023 加拿大森林大火纪实只要你用ReLU,就是“浅度学习”:任意ReLU神经网络都有等效3层网络我国首款柔性太阳翼平板卫星发射;全球社交网络用户近50亿丨科技早新闻留学干货 | 揭秘留学Essay的点睛之笔:Introduction如何决定你的高分论文吃齋還是吃葷健康就好Npj Comput. Mater.: 生成式对抗神经网络:逆向设计金属玻璃挑战英伟达H100霸权!IBM模拟人脑造神经网络芯片,效率提升14倍,破解AI模型耗电难题听书人深度神经网络压缩与加速技术孩子说脏话或网络用语,要制止吗?类GPT模型训练提速26.5%,清华朱军等人用INT4算法加速神经网络训练画你所想!北航港大提出DiffSketcher:基于扩散模型的文本驱动矢量化手绘草图合成吴雷钧博士:A.I.神经网络赋能营销新玩法(I) | 深度观点预训练通用神经网络CHGNet,实现基于电荷的原子模拟Nature:神经网络“举一反三”能力甚至超人类Bioinformatics | 来鲁华/邓明华合作:多层级的图神经网络促进蛋白质功能预测花·海
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。