AAAI 2023 | DropMessage: 统一图神经网络中的随机删除
来源 | MIND Laboratory
论文简介
因为 GNNs 递归地聚合邻域的信息,所以 GNNs 中的节点表示往往会变得不可区分,这种过平滑现象就阻止了 GNNs 建模高阶的邻域关系。递归聚合也使得 GNNs 更容易受到输入图质量的影响,因此噪声图或者对抗攻击会很容易影响到 GNNs 的性能。
论文标题:
DropMessage: Unifying Random Dropping for Graph Neural Networks
https://arxiv.org/pdf/2204.10037.pdf
如图1,现有的随机删除方法对节点的特征矩阵或者邻接矩阵进行删除。
贡献
本文的主要贡献为:
方法
GNNs 上的无偏随机删除方法在目标函数中引入了额外的正则化项,让模型更加鲁棒。
所有的随机删除方法在采样过程中都会产生随机噪声,会增加训练过程的不稳定性。因此本文从样本方差的角度来让模型变得更加鲁棒。
实验结果
节点分类任务在四个公开数据集上进行测试准确率来衡量性能。使用了随机删除的 GNNs 框架结果始终优于不使用随机删除的 GNNs 框架。随机删除方法的效果在不同的数据集上,不同的模型和不同的下游任务上不同。
使用 MADGap 衡量过平滑的程度,值越小表明节点越难以区分,因此值越大越好。通过图 2a 和 2b 可以看出 DropMessage 的 MADGap 和精度经过多层卷积以后性能都比其他随机删除方法要高。当层数大于 3 的时候,DropMessage 的 MADGap 值平均提高了 3.3%,测试精度平均提高了 4.9%。
总结
本文提出了一种用于消息传递 GNNs 模型的通用随机删除方法 DropMessage。首先对消息传递矩阵进行删除并分析影响,将所有随机删除方法统一到框架中,从理论上说明了 DropMessage 在稳定训练过程和保持信息多样性方面的优越性。因为 DropMessage 对消息矩阵进行了细粒度的删除操作,因此在大多数情况下都具有更强的适用性。最后通过实验证明了该模块的有效性。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者