Redian新闻
>
Llama-2+Mistral+MPT=? 融合多个异构大模型显奇效

Llama-2+Mistral+MPT=? 融合多个异构大模型显奇效

公众号新闻

机器之心专栏

机器之心编辑部

融合多个异构大语言模型,中山大学、腾讯 AI Lab 推出 FuseLLM

随着 LLaMA、Mistral 等大语言模型的成功,各家大厂和初创公司都纷纷创建自己的大语言模型。但从头训练新的大语言模型所需要的成本十分高昂,且新旧模型之间可能存在能力的冗余。


近日,中山大学和腾讯 AI Lab 的研究人员提出了 FuseLLM,用于「融合多个异构大模型」。


不同于以往的模型集成和权重合并,前者需要在推理时同时部署多个大语言模型,后者需要合并模型具备相同的结果,FuseLLM 能够从多个异构大语言模型中外化知识,将各自的知识和能力通过轻量的持续训练转移到一个融合大语言模型中。


该论文刚刚在 arXiv 上发布就引起了网友的大量关注和转发。


有人认为,「当想要在另一种语言上训练模型时,使用这种方法是非常有趣的」,「我一直在思考这件事」。

 

目前该论文已被 ICLR 2024 接受。



  • 论文标题:Knowledge Fusion of Large Language Models

  • 论文地址:https://arxiv.org/abs/2401.10491

  • 论文仓库:https://github.com/fanqiwan/FuseLLM


方法介绍


FuseLLM 的关键在于从概率分布表征的角度来探讨大语言模型的融合,对于同样的输入文本,作者认为由不同大语言模型生成的表征可以反映出它们在理解这些文本时的内在知识。因此,FuseLLM 首先利用多个源大语言模型生成表征,将它们的集体知识和各自优势外化,然后将生成的多个表征取长补短进行融合,最后经过轻量级的持续训练迁移到目标大语言模型。下图展示了 FuseLLM 方法的概述。

 

考虑到多个异构大语言模型的 tokenizer 以及词表存在差异,在融合多个表征时,如何对齐分词结果是一大关键: FuseLLM 在 token 级别的完全匹配之上,额外设计了基于最小编辑距离的词表级别对齐,最大程度地保留了表征中的可用信息。


为了在结合多个大语言模型的集体知识的同时保持其各自的优势,需要精心设计用于融合模型生成表征的策略。具体而言,FuseLLM 通过计算生成表征和标签文本之间交叉熵来评估不同大语言模型对这条文本的理解程度,然后引入了两种基于交叉熵的融合函数:


  • MinCE: 输入多个大模型为当前文本生成的表征,输出交叉熵最小的表征;

  • AvgCE: 输入多个大模型为当前文本生成的表征,输出基于交叉熵获得的权重加权平均的表征;


在持续训练阶段,FuseLLM 使用融合后的表征作为目标计算融合损失,同时也保留了语言模型损失。最终的损失函数为融合损失和语言模型损失之和。


实验结果


在实验部分,作者考虑了一个通用但具有挑战性的大语言模型融合场景,其中源模型在结构或能力上具备较小的共性。具体来说,其在 7B 规模上进行了实验,并选择了三个具有代表性的开源模型:Llama-2、OpenLLaMA,和 MPT 作为待融合的大模型。


作者在通用推理、常识推理、代码生成、文本生成、指令跟随等场景评估了 FuseLLM,发现其相较于所有源模型和继续训练基线模型取得了显著的性能提升。


通用推理 & 常识推理

 


在测试通用推理能力的 Big-Bench Hard Benchmark 上,经过持续训练后的 Llama-2 CLM 相较于 Llama-2 在 27 个任务上取得了平均 1.86% 的提升,而 FuseLLM 则相较于 Llama-2 取得了 5.16% 的提升,显著优于 Llama-2 CLM,说明 FuseLLM 能结合多个大语言模型的优势取得性能提升。


在测试常识推理能力的 Common Sense Benchmark 上,FuseLLM 超过了所有的源模型和基线模型,在所有任务上都取得了最佳的性能。


代码生成 & 文本生成

 

在测试代码生成能力的 MultiPL-E Benchmark 上,FuseLLM 在 10 个任务中,有 9 个超过了 Llama-2,取得了平均 6.36% 的性能提升。而 FuseLLM 没有超过 MPT 和 OpenLLaMA 的原因可能是由于使用 Llama-2 作为目标大语言模型,其代码生成能力较弱,且持续训练语料中的代码数据比例较低,仅占约 7.59%。


在多个测量知识问答(TrivialQA)、阅读理解(DROP)、内容分析(LAMBADA)、机器翻译(IWSLT2017)和定理应用(SciBench)的文本生成 Benchmark 上,FuseLLM 也在所有任务中超过了所有源模型,并在 80% 的任务中超过了 Llama-2 CLM。


指令跟随

 


由于 FuseLLM 仅需提取多个源模型的表征进行融合,然后对目标模型持续训练,因此其也能适用于指令微调大语言模型的融合。在评估指令跟随能力的 Vicuna Benchmark 上,FuseLLM 同样取得了出色表现,超过了所有源模型和 CLM。


FuseLLM vs. 知识蒸馏 & 模型集成 & 权重合并

 


考虑到知识蒸馏也是一种利用表征提升大语言模型性能的方法,作者将 FuseLLM 和用 Llama-2 13B 蒸馏的 Llama-2 KD 进行了比较。结果表明,FuseLLM 通过融合三个具有不同架构的 7B 模型,超过了从单个 13B 模型蒸馏的效果。


为了将 FuseLLM 与现有融合方法进行比较(例如模型集成和权重合并),作者模拟了多个源模型来自相同结构的底座模型,但在不同的语料库上持续训练的场景,并测试了各种方法在不同测试基准上的困惑度。可以看到虽然所有的融合技术都可以结合多个源模型的优势,但 FuseLLM 能达到最低的平均困惑度,表明 FuseLLM 具备能比模型集成和权重合并方法更有效地结合源模型集体知识的潜力。


最后,尽管社区目前已经关注大模型的融合,但目前的做法大多基于权重合并,无法扩展到不同结构、不同规模的模型融合场景。虽然 FuseLLM 只是一项初步的异构模型融合研究,但考虑到目前技术社区存在大量不同的结构和规模的语言、视觉、音频和多模态大模型,未来这些异构模型的融合会迸发出怎样惊人地表现呢?让我们拭目以待!




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见大模型在金融领域找到“业技融合”的最佳路径了吗?个人感慨之三十六 乌纱帽个人感慨之三十七 反人类历史直逼GPT-4开源模型大泄漏,AI社区炸锅!Mistral CEO自曝是旧模型,OpenAI再败一局?AI早知道|自定义ChatGPT商店下周上线;腾讯推出语音识别大模型;美图大模型上线童车及母婴童用品展览会(baby&stroller)确认参展2024新渠道大会&精选品牌对接会宏观市场 | 支持闽台深化经贸融合——解读《经贸领域支持福建探索海峡两岸融合发展新路若干措施的通知》少样本轻量化:多个小模型互学习会比大模型好么?观潮新消费联合多家机构发起《国潮品牌陪伴成长计划》三个臭皮匠顶个诸葛亮?可能是真的,已证实混合多个小模型性能比肩GPT3.5AI早知道|ChatGPT模型大更新;阿里云发布多模态大模型;百度推多模态模型UNIMO-GGPT又迎重磅升级!万物皆可大模型(赠大模型系列课程+书籍)谷歌发布West-of-N,利用合成数据,显著提升LLM奖励模型质量 | 今日Arxiv最热大模型论文陈曦 & Steven Holl:“网红”赋予建筑另一重生命力|Me&Master第二季今日arXiv最热NLP大模型论文:北京大学警惕ChatGPT等大模型遏制人类的创新能力AI早知道|Stability AI推出最小模型;国内首个视频大模型通过备案;内蒙古首个AI大模型工业互联网平台发布泰國水燈節Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局开源大模型火了!(附99个大模型微调模型/数据/工具)!最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发国产GPTs来了,基于智谱第4代大模型!模型性能均达GPT-4九成以上个人感慨之三十五 经济状况联合语言和视觉的力量,复旦团队发布全新多专家融合视觉-语言大模型小米全面披露澎湃OS架构 新增融合大模型能力AI子系统将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B大模型版“5年高考3年模拟”来了!6141道数学题,还是多模态的那种|微软&UCLA&UW联合出品6058 血壮山河之随枣会战 第三章 12Cell Discov|陆路/姜世勃/夏帅/朱赟:揭示新冠变异株的膜融合特征和对原核表达的融合抑制剂多肽的敏感性Mixtral、Solar及OpenChat三大模型融合,效果能拉多高?2023创业家年会关键词是“AI”;百度发布Q3财报;拼多多成立大模型团队;字节飞书接入大模型;比尔·盖茨最新分享AI早知道|百度推出视频生成模型UniVG;Soul APP上线自研语言大模型;清华大学首个大模型 DebugAllston | studio & 3b2b | 包杂费 | 1800+ & 4100+ | 接本科生 | BU详解多模态大模型:LLaVA+LLaVA1.5+LLaVA-Med
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。