Redian新闻
>
有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA

有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA

公众号新闻

机器之心专栏

机器之心编辑部

蒙特利尔算法学习人工智能实验室(Mila)和微软亚洲研究院等单位提出文本图训练框架 GLEM [1],能够有效融合语言模型和图神经网络,取得 OGB 3 个数据集第一名。



  • 主要单位:蒙特利尔算法学习人工智能实验室(Mila)、微软亚洲研究院等
  • 论文地址:https://arxiv.org/abs/2210.14709
  • 代码地址:https://github.com/andyjzhao/glem


引言



图 1:(a) 文本图 (b) 图神经网络 (c) 语言模型


图是一种普遍的数据结构,建模了节点之间的结构关系。在现实生活中,许多节点包含丰富的文本特征,这种图被称为文本图 (text-attributed graph [2])。例如,论文引用网络中包含了论文的文本和论文之间的引用关系;社交网络中包含了用户的文本描述和用户直接的交互关系。在文本图上的表示学习模型,可以应用于节点分类、链路预测等任务中,具有广泛的应用价值。


文本图包含了两方面信息:节点的文本信息和节点之间的图结构信息。传统文本图的建模可以分为对文本建模和对图建模两个角度。其中,对文本的建模方式(如图 1.b 所示)通常采用基于 Transformer 的语言模型(LM)得到单个节点的文本表示,并对目标任务进行预测;对图建模的建模方式(图 1.c 所示)通常采用图神经网络(GNN),通过消息传播机制来建模节点特征之间的交互,并预测目标任务。


然而,两种模型只能分别建模文本图中的文本和图结构:传统语言模型无法直接考虑结构信息,而图神经网络无法直接对原始文本信息进行建模。为了同时建模文本和图结构,研究者们尝试将语言模型和图神经网络融合起来,同时更新两个模型的参数。但是,现有工作 [2, 3] 无法同时建模大量邻居文本,可拓展性差,无法应用在大文本图上。


GLEM 框架


为了更有效的融合图神经网络和语言模型,本文提出了 Graph and  Language Learning by Expectation Maximization (GLEM) 框架。GLEM 框架基于变分期望最大算法(Variational EM),交替学习图神经网络和语言模型,从而获得了很好的可拓展性。


图 2:GLEM 框架


具体地,以节点分类任务为例,在 E 步 , GLEM 根据真实标签和图神经网络预测的伪标签训练语言模型;在 M 步 , GLEM 根据真实标签和语言模型预测的伪标签训练图神经网络。通过这种方式,GLEM 框架有效挖掘了局部的文本信息和全局的结构交互信息。通过 GLEM 框架训练好的图神经网络(GLEM-GNN)和语言模型(GLEM-LM)都可以用来预测节点标签。


实验


论文的实验部分主要从以下几个方面讨论 GLEM 框架:


  • 有效性:GLEM 模型能够有效融合图神经网络和语言模型,对两种模型都有明显提升。GLEM 框架在 OGB 的三个文本图节点分类任务上取得了第一名。

  • 可扩展性:通过交替训练图神经网络和语言模型,GLEM 框架可以同时训练大语言模型和深层 GNN。

  • 无结构归纳推理(Structure-free inductive)能力:传统 GNN 模型在面对没有图结构的新节点时表现不佳。相比之下,GLEM-LM 仅使用文本特征(无需图结构)就能进行有效推理。

  • 模型收敛:GLEM 使用 EM 迭代算法,在一些数据集上一次 EM 迭代即可收敛。


图 3:GLEM 框架在 OGBN-arxiv, products, papers100M 数据集上取得第一名


引用

[1] Zhao et al. Learning on Large-scale Text-attributed Graphs via Variational Inference. Arxiv Preprint '22.

[2] Yang et al. GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph. In NeurIPS '21.

[3] Zhu et al. TextGNN: Improving Text Encoder via Graph Neural Network in Sponsored Search. In WWW '21.



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
大规模GNN如何学习?北邮最新《分布式图神经网络训练》综述,35页pdf阐述分布式GNN训练算法和系统汇编语言之母100岁逝世:曾和冯·诺依曼一起研究,退休后还在研究神经网络COLING 2022 | 融合自适应机制与自训练框架的无监督文本顺滑方法NeurIPS 2022 | 文本图片编辑新范式,单个模型实现多文本引导图像编辑孙女帆船??第一次正规比赛DALL-E和Flamingo能相互理解吗?三个预训练SOTA神经网络统一图像和文本CIKM 2022最佳论文:融合图注意力机制与预训练语言模型的常识库补全ICML2022 | GNNRank: 基于有向图神经网络从两两比较中学习全局排序重阳节和老爸聊聊天基于预训练语言模型的可控文本生成NIPS 2022 | 文本图片编辑新范式:单个模型实现多文本引导图像编辑NeurIPS 2022 | 文本图片编辑新范式:单个模型实现多文本引导图像编辑何以解忧,背米去来!EMNLP 2022 | 北大提出基于中间层特征的在线文本后门防御新SOTATPAMI 2022 | 利用子图同构计数提升图神经网络的表达能力北邮王啸:挖掘图神经网络中的「万物真理」最新综述:等变图神经网络我家就在仙雾缭绕处推理速度比Stable Diffusion快2倍,生成、修复图像谷歌一个模型搞定,实现新SOTAICLR'23截稿, 图神经网络依然火热 (附42 篇好文整理)研究人员开发在小型设备上训练大型神经网络 保护隐私近万人围观Hinton最新演讲:前向-前向神经网络训练算法,论文已公开NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark因果推理相关的图神经网络研究进展王啸@北京航空航天大学:图神经网络的“共性”与“个性”NeurIPS 2022 | 基于解耦因果子结构学习的去偏差图神经网络仅用256KB就实现单片机上的神经网络训练博物馆不设馆长百岁汇编语言之母逝世!71岁时她还在和儿子合写神经网络论文7 Papers & Radios | Hinton前向-前向神经网络训练算法;科学家造出「虫洞」登Nature封面可扩展、可解释,新框架从预训练语言模型中高效提取知识图谱NeurIPS 2022 | 仅用256KB就实现单片机上的神经网络训练从多篇顶会论文看图神经网络黑盒攻击近期进展AAAI 2022 | 正交图神经网络
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。