Redian新闻
>
WWW 2024 | 阿里等提出GraphTranslator,将图模型对齐大语言模型

WWW 2024 | 阿里等提出GraphTranslator,将图模型对齐大语言模型

公众号新闻


©作者 | 莫燕虎、孙铭蔚

来源 | 北邮 GAMMA Lab



论文链接:

https://arxiv.org/pdf/2402.07197.pdf

代码链接:

https://github.com/alibaba/GraphTranslator

引言

图模型(GM)如图神经网络(GNN),利用节点特征和图结构来学习表征并预测,在多种领域表现出色,但 GM 通常局限于预定义任务如节点分类,难以适应新的类别和任务。而大型语言模型(LLM)如 ChatGPT,在处理开放式任务和理解自然语言指令方面显示了巨大潜力,推动了跨模态研究的发展。

最近,将 LLM 应用于图的工作可分为两类,如下图 (a)-1 和 (a)-2 所示:1)利用 LLM 以其海量知识增强节点的文本属性,然后通过 GM 生成预测;2)或者是将节点以 token 或文本的形式,直接输入给 LLM 来作为独立的预测器。

然而,这些方法无法同时解决处理预定义的任务和开放式任务。这就很自然地提出了一个问题:「我们能否在图学习领域建立一个既能解决预定义任务又能解决开放式任务的模型?」

本文提出一个名为 GraphTranslator 的框架,结合预训练的图模型 (GM) 与大型语言模型 (LLM) 来处理预定义和开放式任务。GraphTranslator 中的「Translator」模块负责将图节点嵌入转换为 LLM 可理解的 token 嵌入,通过学习 graph queries 来提取语言信息并适配 LLM。
为应对数据对齐挑战,我们开发了「Producer」模块,利用 LLM 生成节点嵌入和文本描述的配对数据,并文本化节点信息。训练后,带有 Translator 的 LLM 能处理各种开放式任务。

GraphPAR的实现

我们提出的 GraphTranslator 的主要目标是将图模型与 LLM 对齐,以便利用 LLM 的能力去执行开放式任务。具体而言,GraphTranslator 由几个模块组成:

冻结的GM和LLM
给定一个TAG 典型的图神经网络被表示为 ,其中 是一组可学习的参数,是节点特征。以 GraphSAGE [1] 为例,通常情况下,GraphSAGE 在目标节点周围采样一个固定大小的邻居 ,然后通过以下方式连接节点的前一层嵌入 与聚合的邻域向量 
最后,预训练的 GM 编码了的局部图信息,并产生了节点嵌入 
LLM 在广泛的文本语料库上进行训练,获得大量的知识。我们使用了 ChatGLM2-6B [2],这是一个开源的双语(Chinese-English)语言模型。

Producer模块

为了训练不同模态的数据与 LLM 进行对齐,需要高质量的对齐数据。例如,计算机视觉领域 LLM 需要 {图像,描述文本},而图模型 LLM 则需 {图表征,描述文本}。因此,我们设计了一个流程来引导 LLM 创建图节点描述,涵盖三个方面:

  • 节点信息文本总结节点属性并生成描述,反映节点嵌入中的信息。

  • 邻居信息文本:采样一阶邻居节点,整合它们的信息以便总结。

  • 共性信息文本:根据节点和邻居信息文本整合共性,推断节点间的相似性。
Translator模块

为解决 GM 与 LLM 之间的模态差异,我们引入了 Translator 模块将节点嵌入转换为 token 表示。受到 BLIP2 [3] 的启发,我们采用两阶段训练方法逐步缩小 Graph 与 LLM 的差距。

第 1 阶段:训练 Translator 进行 GM 和文本的对齐。

我们提出了三个目标以对齐节点嵌入 和节点文本描述 
1. 对比目标:通过计算之间的相似度,并选择最高得分来最大化二者的互信息。
2. 生成目标:根据节点嵌入 生成描述文本,并优化生成文本与实际节点描述之间的交叉熵损失,使得 query tokens 能捕获更多与 相关的细节。
3. 匹配目标:细粒度对齐通过将每个节点嵌入 与 [CLS] 标记 拼接并输入二分类器来学习,计算所有查询的 logits 平均值作为匹配得分。
第 2 阶段:训练 Translator 进行 GM 和 LLM 的对齐。
我们使用线性层将 Translator 模块的输出,即 token embedding ,投影到与 LLM 的词嵌入相同的维度。然后通过生成式学习,利用对齐数据对 Translator 参数进行调优。通过这种方式,节点嵌入 可以与预训练的 LLM 词嵌入对齐。

实验

我们在真实世界的数据集上进行了实验,包括工业数据集淘宝和 ArXiv 数据集。

Zero-Shot实验性能比较

在 Taobao 和 ArXiv 的实验中,我们的 GraphTranslator 模型取得了优于大部分基准模型的性能,证明它有效地利用了 LLM 的能力。相较于基于 BERT 的方法,GraphTranslator 更擅长处理需求复杂的 zero-shot 任务。相比直接使用 LLM 的方法,GraphTranslator 通过将节点嵌入转换成软提示,减少了处理大量堆叠信息的噪声和复杂性,提升了性能。

我们的模型在 LLM 基础上提高了检出率,尤其在正例召回率方面有显著增长。GraphTranslator 通过整合并压缩节点和邻居属性信息,提炼出 Graph 嵌入,使得 LLM 更容易理解和跟随指令,这在工业应用中非常重要。例如,在淘宝数据集上,GraphTranslator 能够识别与“猫”相关的隐式产品,并将其显式总结为猫相关产品,从而更准确地识别正例。



消融实验

为验证我们的 GraphTranslator 训练策略,我们将其与只完成“阶段 1 训练”和“阶段 2 训练”的变体对比。结果表明,仅阶段 1 可以有效对齐图嵌入和文本,但未映射到 LLM 的语义空间,导致理解语义信息的能力不足。仅阶段 2 虽连接了图嵌入与 LLM,但缺乏对节点嵌入和文本的深入理解,性能不理想。结合两阶段训练的 GraphTranslator 为 LLM 提供对图信息的全面理解,取得了最优结果。



GQA实验

我们在淘宝数据集上进行了基于 Graph 的问答实验,以探索 GraphTranslator 在开放式应用中的潜力和商业价值。通过模拟多轮对话的 LLM,测试了 GraphTranslator 在处理未知图节点表征的信息提取、理解和推理能力。为此,我们从 100 个图节点构建了一个评估集,并设计了三个问题:

  • Q1:用户兴趣概述。

  • Q2:朋友间共同兴趣汇总。

  • Q3:分析用户之间的友谊原因。

GraphTranslator 为第一个问题生成软提示,而将用户及其邻居的属性文本直接提供给 ChatGLM2-6B 进行比较。利用人类评估者和 ChatGPT 进行开放式问题的定量分析,我们采用四级评分系统来评价回答的准确性和相关性。

  • 评分-A:答案正确简洁,信息正确,推理准确。

  • 评分-B:答案是合理的,有小错误或不完美。

  • 评分-C:答案与问题相关,但内容有明显错误或不准确。

  • 评级-D:该回答不相关或完全无效。

观察比较结果显示,GraphTranslator 在使用未知图节点嵌入作为 LLM 提示时,共获得了 210 个 A 级评分,超过了直接输入原始文本的 Vanilla LLM 的 203 个 A 级评分,显示出其优越性能。此成果得益于 GraphTranslator 根据 Producer 生成的低噪声文本进行训练,使其能从节点嵌入中提取高质量信息。

特别是在解释朋友关系的问题 3 中,GraphTranslator 展现了其在理解图谱和提取基于节点嵌入信息的能力,证明了其对图结构理解。


总结与展望

本文提出 GraphTranslator 框架,结合图模型(GM)与大型语言模型(LLM),通过 Translator 模块将节点嵌入转换成 token,以消除模态差异并使 GM 能处理开放式任务。Producer 模块将节点信息文本化以生成对齐数据,支持模型训练。
我们在真实数据集上验证了 GraphTranslator 在 zero-shot 节点分类中的有效性,并展示了其在总结、理解和推理 Graph 信息方面的潜在商业价值。
尽管展示了 GraphTranslator 在开放式任务上的潜力,但未来还有一些方面可以继续探索:
  • 首先,Producer 在确定 Translator 质量中至关重要,可以考虑加入更多节点拓扑信息以减少信息丢失。若更大规模的 LLM 和新技术,如 Chain-of-Thought,可能会提高模型性能。

  • 实验中,zero-shot 分类任务有标签进行定量分析,而 GQA 任务只通过案例展示性能。设计评估数据集和相应指标,对开放式任务(如图理解、解释和多轮对话)进行全面定量评估,对未来研究很重要。

参考文献

[1] Hamilton W, Ying Z, Leskovec J. Inductive representation learning on large graphs[J]. Advances in neural information processing systems, 2017, 30.
[2] https://github.com/THUDM/ChatGLM2-6B
[3] Li J, Li D, Savarese S, et al. Blip-2: Bootstrapping language-image pre-training with frozen image encoders and large language models[C]//International conference on machine learning. PMLR, 2023: 19730-19742.


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
美坛活动【Poem Reading Tuesday】My Doggy Ate My Essay by Darren SardelNAACL 2024 | 阿里提出大语言模型对齐框架Reward Learning on Policy (RLP)青烟一缕入大漠(二)两个附小北京内推 | 阿里通义实验室对话智能团队招聘大语言模型研究型实习生【求职战报】全球金融交易平台Deutsche Börse Systems销售运营面试邀约!CVPR 2024 | 和马赛克说拜拜!华为、清华等提出基于认知的万物超分大模型CVPR 2024 | 无参数无训练也能大幅涨点!港城大等提出全新小样本3D分割模型Niu Niu's A Journey to Overcoming Fear & Forming Connections吴京人设变了?于正制造争议话题,病态瘦审美?蔚来李斌的烦恼今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准Mamba架构第一次做大!混合Transformer,打败TransformerSabalenka vs. Zheng: Australian Open 2024 women's finalCVPR 2024 | 中大哈佛等提出全新训练方法CLoT,探究大模型幽默创新力《Hush Little Baby》人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈让机器准确「看懂」手物交互动作,清华大学等提出GeneOH Diffusion方法[COLING 2024教程] 多模态大语言模型MLLM系列教程马斯克宣布正式开源大语言模型Grok;人体避免多个精子使一个卵子受精的机制揭示 | 环球科学要闻《少年少年祖国的春天》微软拟与OpenAI投资1000亿美元建AI超算;Databricks 推出1320亿参数大语言模型 DBRX丨AIGC日报健康投资项目总结ICML 2024 | 大语言模型预训练新前沿:最佳适配打包重塑文档处理标准多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊大语言模型对齐的四种方法!深圳/香港/上海内推 | 商汤研究院基础语言模型团队招聘大语言模型算法研究员LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」ACL 2024 | 多目标直接偏好优化MODPO:大语言模型的多目标对齐Sleep Instantly Within 3 Minutes Sleep Music for Babies Mozart三个方面浅析数据对大语言模型的影响2024 新一批裁员浪潮,你的公司上榜了吗?FuseLLM:大语言模型的知识融合!张钹院士:从大语言模型到通用人工智能基于大语言模型LangChain框架:知识库问答系统实践|文末赠书ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准WWW 2024 | 港理工等联合提出线性时间图神经网络,适用于大规模推荐系统今日arXiv最热NLP大模型论文:清华大学:大语言模型的常见词僻意理解能力竟不如中学生ICML 2024 | 大语言模型如何表征不同信念?AI早知道|商汤发布日日新5.0大模型;微软推出小语言模型Phi-3;腾讯旗下协作SaaS产品全面接入混元大模型简单好用!北大、普林斯顿联合提出即插即用的大语言模型加速方法纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。