Redian新闻
>
WSDM 2023 | 学习蒸馏图神经网络

WSDM 2023 | 学习蒸馏图神经网络

公众号新闻


©作者 | 郭雨心
单位 | 北京邮电大学
来源 | 北邮GAMMA Lab

图神经网络 (GNNs) 能够有效地获取图的拓扑和属性信息,在许多领域得到了广泛的研究。近年来,为提高 GNN 的效率和有效性,为 GNN 上配置知识蒸馏成为一种新趋势。然而,据我们所知,现有的应用于 GNN 的知识蒸馏方法都采用了预定义的蒸馏过程,这些过程由几个超参数控制,而不受蒸馏模型性能的监督。蒸馏和评价之间的这种隔离会导致次优结果。

在这项工作中,我们旨在提出一个通用的知识蒸馏框架,可以应用于任何预先训练的 GNN 模型,以进一步提高它们的性能。为了解决分离问题,我们提出了参数化和学习适合蒸馏 GNN 的蒸馏过程。

具体地说,我们没有像以前的大多数工作那样引入一个统一的温度超参数,我们将学习节点特定的蒸馏温度,以获得更好的蒸馏模型性能。我们首先通过一个关于节点邻域编码和预测分布的函数将每个节点的温度参数化,然后设计了一种新的迭代学习过程来进行模型蒸馏和温度学习。我们还引入了我们的方法的一个可扩展的变体来加速模型训练。

在 5 个基准数据集上的实验结果表明,我们提出的框架可以应用于 5 个流行的 GNN 模型,并使其预测精度平均相对提高 3.12%。此外,可扩展的变体模型以 1% 的预测精度为代价,使训练速度提高了 8 倍。


论文标题:
Learning to Distill Graph Neural Networks

论文链接:

https://dl.acm.org/doi/abs/10.1145/3539597.3570480



简介

图神经网络 (GNNs) 已经成为最先进的图上的半监督学习技术,并在过去的五年中受到了广泛的关注。数以百计的图神经网络模型已经被提出并成功地应用于各种领域,如计算机视觉、自然语言处理和数据挖掘。近年来,在图神经网络中加入知识蒸馏来达到更好的效率或效果是一种新趋势。

在知识蒸馏中,学生模型通过训练来模仿预先训练的教师模型的软预测来学习知识。从效率的角度来看,知识蒸馏可以将深层的图卷积神经网络(GCN)模型(教师)压缩为浅层模型(学生),从而实现更快的推理。从有效性的角度来看,知识蒸馏可以提取图神经网络模型(教师)的知识,并将其注入到设计良好的非图神经网络模型(学生)中,从而利用更多的先验知识,得到更准确的预测结果。

除了教师和学生的选择,蒸馏过程决定了教师和学生模型的软预测在损失函数中如何匹配,也对蒸馏后的学生对下游任务的预测表现至关重要。例如,全局超参数“温度”在知识蒸馏中被广泛采用,它软化了教师模型和学生模型的预测,以促进知识转移。

然而,据我们所知,应用于图神经网络的现有知识蒸馏方法都采用了预先定义的蒸馏过程,即只有超参数而没有任何可学习的参数。换句话说,蒸馏过程是启发式或经验式设计的,没有任何来自蒸馏学生的监督,这将分离蒸馏与评价,从而导致次优结果。针对现有的图上知识蒸馏方法的上述缺点,本文提出了一种参数化蒸馏过程的框架。

在本工作中,我们的目标是提出一个通用的知识蒸馏框架,可以应用于任何预训练过的图神经网络模型,以进一步提高其性能。注意,我们关注的是蒸馏过程的研究,而不是学生模型的选择,因此,就像 BAN 建议的那样,简单地让一个学生模型拥有与其老师相同的神经结构。为了克服蒸馏和评估之间的隔离问题,我们没有将全局温度作为超参数引入,而是创新性地提出通过蒸馏 GNN 学生的表现来学习特定节点的温度。

本工作的主要思想是为图上的每个节点学到一个特定的温度。我们通过一个关于节点邻域编码和节点预测分布的函数来参数化每个节点的温度。由于传统知识蒸馏框架存在隔离问题,经过蒸馏的学生的性能对节点温度的偏导数不存在,这使得温度参数化中的参数学习有着一定的困难。

因此,我们设计了一种新的迭代学习过程,交替执行准备、提取和学习步骤,用于参数训练。在准备阶段,我们将根据当前参数计算每个节点的温度,并建立基于节点温度的知识蒸馏损失;在蒸馏阶段,学生模型的参数将根据蒸馏损失进行更新;在学习阶段,温度建模中的参数将更新,以提高提取的图神经网络学生模型的分类精度。



预备知识


2.1 节点分类

节点分类是一种典型的图上的半监督学习任务,其目的是对给定的标记节点和图结构中的未标记节点进行分类,被广泛应用于许多 GNN 模型的评估中。形式上,给定一个连通图 是顶点集, 是边集,节点分类的任务是基于图结构 、有标签的节点集 和节点特征 来预测没有标签的节点集 中每个节点 v 的标签。
其中矩阵 X 的每一行 表示节点 v 的 d-dimensional 特征。设 为节点标签的集合,则每个节点的真实标签可以表示为一个 维的独热向量 

2.2 图神经网络

图神经网络可以通过迭代聚合邻居信息,即消息传递机制,将每个节点v编码为 |Y| 维 logit 向量 。在本文中,我们提出的算法不是针对特定的图神经网络模型设计的,而是可以应用于任何图神经网络。因此,我们简单地将图神经网络编码器以黑盒形式描述化为:


其中 是图神经网络中的可学习参数,是在 softmax 函数归一化之后的预测标签分布。然后图神经网络会对每个有标签的节点最小化该节点的真实标签与预测标签之间的距离,通常采用交叉熵损失来训练参数 

2.3 知识蒸馏

在本工作中,我们关注的是蒸馏过程的研究,而不是学生模型的选择。因此,我们只需让教师模型和学生模型具有 BAN 建议的相同的神经结构,并分别表示为 ,参数分别为 和 。给定教师模型的预训练参数,我们将通过对 和 之间的软预测进行对齐,训练学生模型的参数。从形式上讲,知识蒸馏框架旨在优化:


其中第一项是学生预测和教师预测之间的交叉熵,第二项是 中节点的学生预测与真实标签的交叉熵,是平衡超参数。许多知识蒸馏方法会引入额外的温度超参数来软化教师和学生的预测:

其中 是温度超参数。温度等于 1 时对应原始的 softmax 操作。温度越高,预测就越软(趋向均匀分布),而温度越低,预测就越硬(趋向独热分布)。在最流行的蒸馏框架中,所有的温度都被设置为相同的超参数 ,即为每个节点 𝑣设置 。通过调整全局温度超参数,然后对经过蒸馏的学生模型进行评估,并期望其性能优于教师。



为每个节点学习特定温度

我们没有引入全局温度作为超参数,而是创新地提出学习特定节点的温度,以获得更好的蒸馏性能。我们将首先介绍如何在温度参数化中引入可学习参数,然后设计一种基于迭代学习过程的参数训练新算法。

3.1 参数化温度

直接为每个节点指定一个自由参数作为节点特定温度将导致严重的过拟合问题。因此,我们假设具有相似编码和邻域预测的节点应该具有相似的蒸馏温度。

在实际应用中,每个节点 𝑣的温度可以通过一个函数来参数化,该函数需要用到以下特征:1)学生的 logit 向量,它直接表征了学生模型当前的预测状态;2)Logits 向量的 L2 范数,由于 softmax 函数中的指数算子,较大的范数通常表示较硬的预测分布;3)中心节点邻居的预测熵,描述了节点邻居的标签多样性。

直观上,上述所有特性都会影响模型预测的置信度,因此在温度参数化中都应考虑。形式上,我们将所有学生模型的温度设置为 1,以实现更精确的预测,并将教师温度参数化:

我们使用教师而不是学生来建模邻居的预测熵,以获得更好的数值稳定性。我们在实验部分将研究每个连接组件的影响,并讨论我们学习的温度。此外,为了避免梯度爆炸或消失的问题,我们还通过一个基于 sigmoid 操作的函数 ,将温度限制在 范围内。注意,用来建模温度的其他特征也可能存在,但我们发现我们使用的三个特征足以提高性能,并且这三个特征都是有用的。

3.2 迭代学习过程

为了监督节点特定温度的训练,我们将标记的节点集划分为两个不相交的节点集仍然在损失函数的第二项中用于蒸馏,而用于评估蒸馏的学生模型和学习节点温度。形式上,蒸馏部分的损失可以写成:


评估蒸馏的学生和监督温度的损失是:

然而,由于蒸馏和评估之间的隔离,评估损失只与学生模型的参数有关,评估损失对温度参数的偏导数不存在,这使它不可能通过反向传播来学习温度。为了解决这个问题,我们提出了一个新的迭代学习过程,交替执行以下准备、提炼和学习步骤:准备步骤:首先计算每个节点 v 的温度,然后设定好蒸馏损失。蒸馏步骤:对于模型蒸馏,我们通过单步反向传播来更新学生模型参数:



其中 是蒸馏过程的学习率。学习步骤:我们用更新之后的学生参数计算评估损失,然后通过链式规则在温度参数上执行反向传播:



其中 是蒸馏过程的学习率。这里我们将评估损失对温度参数的偏导分解为评估损失对学生参数的偏导和学生参数对温度参数的偏导的乘积,这两项都可以分别由上述式子的偏导计算得到。通过迭代执行准备、蒸馏和学习步骤,我们可以训练参数化的节点特定温度,从而提高蒸馏学生的预测性能。整个算法的伪代码如下:
我们还设计了一个轻量化的模型变体来加速模型训练,更多细节请参考原文。


实验

在本节中,我们对五个基准数据集进行了实验,以回答以下研究问题 (RQs):

  • RQ1:我们的 LTD 蒸馏出的 GNN 学生是否优于其他知识蒸馏框架蒸馏出的学生?与其他蒸馏框架相比,我们模型的效率如何?

  • RQ2:我们的模型在不同的环境下(如消融研究,GNN 教师/学生的不同组合)表现如何?

  • RQ3:我们可以从学习的 LTD 参数(即特定节点的温度)中观察到什么模式?

4.1 主实验

我们给出了 5 个基准数据集和 5 个 GNN 模型的结果。我们在表中将最好的结果加粗,并报告了我们的方法相比教师与 FT 中较好结果的相对提升。

4.2 消融实验

我们进行了消融研究,以探讨每个特征在温度参数化中的作用。如下图所示,我们将我们的完整模型 (V0) 与三个消融模型 (V1-V3) 进行了比较。下图显示了所有三个组件对整体性能的贡献,这说明了每个组件对温度建模的必要性。

4.3 学习到的温度分析

我们分析了在 5 × 5 = 25 GNN 数据集组合中学习到的节点特定温度,并提出了以下基于 GAT 的案例研究,以说明 LTD 如何帮助学习更好的蒸馏。

1. 首先,我们计算了随机初始化温度和学习温度之间的 Pearson 相关系数,以证明训练过程后节点温度发生了显著变化,并且真正具有节点特异性。

2. 我们观察到“令人困惑”的类(即与其他类混合)中的节点往往具有更高的温度。例如,在下图中我们将 GAT 老师学习到的节点嵌入可视化,并使用节点颜色来表示它们的标签。

3. 我们观察到具有较小的 L2 范数的节点倾向于具有较高的温度。

4. 请注意,我们允许负节点温度,这将完全颠倒先训练的教师的预测。我们观察到具有负学习温度的节点很可能被 GNN 老师错误地预测。



结论


在本文中,我们提出了一种新的知识蒸馏框架 LTD,可以应用于任何预训练的 GNN 模型,以进一步提高其预测性能。我们没有像以前的大多数工作那样引入一个全局温度超参数,而是创新地提出通过蒸馏学生的表现来学习节点特定的蒸馏温度。

具体而言,我们通过邻域编码和预测情况的函数来参数化每个节点的温度,并设计了一种新的迭代学习过程,用于模型提取和参数学习。作为一种成本有效的选择,LTD 的可扩展变体提出了启发式更新节点特定温度。我们在五个基准数据集上进行了实验,并表明我们提出的框架可以成功地应用于五个流行的 GNN 模型。大量的研究进一步证明了该方法的有效性。

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
微软提出自动化神经网络训练剪枝框架OTO,一站式获得高性能轻量化模型最新综述:等变图神经网络印度电影《RRR》观后感(1)ICLR 2023 | 清华大学龙明盛组提出通用时间序列神经网络骨干—TimesNet中国学者引领图神经网络技术的重要突破,再次刷新了蛋白质性能预测榜单记录​AAAI 2023 | 利用脉冲神经网络扩展动态图表示学习走资派玩资产阶级法权深入人心「图神经网络前沿进展与应用」SpikeGPT项目原作解读:使用脉冲神经网络的生成式语言模型[打卡] 什么是AI 的“神经网络”?Npj Comput. Mater.: 多主元素合金硬度—集成神经网络模型大家过年好!年夜饭来了:-)6种卷积神经网络压缩方法【南北碰碰胡】# 26南方 + 《恭喜恭喜》+ 广东煎堆油角国际要闻简报,轻松了解天下事(03液态神经网络无人机在未知领域航行时击败了其他人工智能系统ChatGPT写神经网络:一字不改,结果竟然很好用2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一CVPR 2023 | G2SD: 让小模型也能从自监督预训练中受益的蒸馏方法详解神经网络中反向传播和梯度下降CVPR 2023 | 神经网络超体?新国立LV lab提出全新网络克隆技术2023 春 祝姐妹们周末快乐!AAAI 2023 | DropMessage: 统一图神经网络中的随机删除详解神经网络基础部件BN层​ICLR 2023 | 标识分支结点,提升图神经网络对环的计数能力Npj Comput. Mater.: DFT中的电子密度—等变图神经网络GNN如何建模时空信息?伦敦玛丽女王大学「时空图神经网络」综述,简明阐述时空图神经网络方法Transformer:一种图灵完备的神经网络祝福与期待——除夕遐想WSDM 2023 | HGCL: 探索推荐系统中的异质图对比学习怎样让ChatGPT在其内部训练神经网络?理解并统一14种归因算法,让神经网络具有可解释性Eruope 202310行代码搞定图Transformer,图神经网络框架DGL迎来1.0版本香港理工大学林婉瑜博士实验室招收可信人工智能/图神经网络方向全奖博士生/博士后突破神经网络限制,量子蒙特卡洛研究新进展登Nature子刊ICLR 2023 | 漂移感知动态神经网络:基于贝叶斯理论的时间域泛化框架​WSDM 2023 | S2GAE: 简单而有效的自监督图自动编码器框架转:2023 回国探亲(5)怎样让ChatGPT在其内部训练神经网络?先让它想象自己有4块3090
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。