Redian新闻
>
LLaVA-MoLE:稀疏混合LoRA专家缓解指令微调MLLM中的数据冲突

LLaVA-MoLE:稀疏混合LoRA专家缓解指令微调MLLM中的数据冲突

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【大模型】交流群

扫描下方二维码,加入CVer学术星球可以获得最新顶会/顶刊上的论文ideaCV从入门到精通资料,及最前沿应用!发论文搞科研,强烈推荐!

美团提出了LLaVA-MoLE,一种稀疏混合LoRA专家的MoE模型架构,在混合多个不同领域指令数据微调多模态大模型时,成功地缓解了领域间数据冲突的问题,在通用多任务问答、文档图表问答、医疗影像问答等三个领域的Benchmark上均持平或超越单一领域数据训练的LLaVA-1.5架构模型,同时训练和推理开销基本不增加。这一工作为从数据角度拓展多模态大模型的能力范围提供了一种高效的解决方案。

LLaVA-MoLE: Sparse Mixture of LoRA Experts for Mitigating Data Conflicts in Instruction Finetuning MLLMs

论文:https://arxiv.org/abs/2401.16160

研究背景

近期,多模态大语言模型(MLLM)展现出广泛的图像内容理解和问答能力,这一方面得益于其以强大的大语言模型作为基座,另一方面,用丰富的图文指令数据进行指令微调(Instrcution Finetuning)也是十分关键的,其中除了指令数据本身的质量之外,不同类型的指令数据的配置也尤为重要。该研究发现在混合来自不同领域的指令数据时,数据冲突(Data Conflict)现象不可避免,导致训练后的模型在某一领域的性能相比使用单一领域数据时显著下降,这严重限制了通过增加训练数据类型来扩展模型能力范围。

图1. 不同领域指令数据微调的模型在各领域Benchmark上的表现    

如图1所示,在初步实验中,该研究在通用、文档、医疗等三个领域的指令数据上分别微调了一个LLaVA模型(LLaVA-1.5,LLaVA-Doc,以及LLaVA-Med),并在各领域Benchmark上进行测试。各个模型分别在对应训练数据的领域Benchmark上表现较好。但若简单地混合三个领域数据训练LLaVA-Mix模型,则会发现通用Benchmark上的性能有显著下降(306.3->295.8)。尽管其他两个领域的能力变化不大,甚至文档能力还会受益于通用指令数据,但整体来说,这样的结果证明当前模型架构下,简单混合多领域指令数据的可扩展性受限于数据间的冲突。而该研究提出的LLaVA-MoLE方法可以很好地在混合多领域数据时维持住各领域能力,甚至略有上升。       

方法

基于以上观察到的数据冲突现象,该研究提出了一种稀疏的混合LoRA专家(sparse Mixture of LoRA Experts,MoLE)架构,通过学习将token路由到合适的专家模块的方式,缓解不同领域的数据冲突。同时,该方法也是对常用的LoRA微调范式的高效扩展,以稀疏激活Top-1专家的方式,理论上相比于原始的LoRA仅增加了少量的路由计算开销,基本保持了总体计算量不增加。该研究的模型基于LLaVA-1.5的架构,因此命名为LLaVA-MoLE。

图2. LLaVA-MoLE的模型结构

如图2所示,模型的视觉编码器、Adapter模块以及文本处理方式与LLaVA-1.5一致。当视觉和文本token拼接进入语言模型(Vicuna-1.5)之后,每一个Transformer层都经过了MoLE的改造。具体地,Self-Attention上的LoRA维持不变,仅在FFN层进行MoLE。对于每一个token,Router模块都会计算K个专家的一个概率分布,并取其中概率最高的专家激活,即进行实际的LoRA计算,其余专家跳过对该token的计算。最后,只有激活专家的数据与原本FFN的输出相加,得到该token在当前Transformer层的最终输出。

为了进行高效的实现,该研究在每一层首先计算所有token的专家分配,并依据专家分配将token分组(K个专家即分成K组),使得各个组内token的FFN和LoRA计算可以高效地并行进行,最后再按照原始token序列的顺序恢复位置。同时,为了保持各组token的计算量均衡,也即各个LoRA专家的token训练量均衡,该研究参考此前的MoE工作引入额外的负载均衡损失,控制各个专家上分配的token数量大致相当。最后,该研究的实现相比原始LoRA只有Router的额外计算量,在专家数量较少的情况下,总体计算量基本不增加。         

数据集

与LLaVA-1.5相同,LLaVA-MoLE的模型经过两阶段训练,第一阶段使用了ShareGPT4V预训练数据,包含130万条图像及描述对,训练得到的一阶段预训练模型作为所有后续指令微调模型的基础。   

指令数据方面,选取通用多任务问答,文档图表问答,以及医疗影像问答等三个领域的代表性数据集。M$^3$IT[^fn1] 和ShareGPT4V-FT[^fn2] 都是包含多个视觉多任务问答指令数据的高质量数据集,被用作通用多任务问答指令数据,总计230万条。文档图表问答则选取UReader[^fn3]基于多个公开文档图表问答数据集构建的综合数据集,并采用UReader调节好的数据配比,共110万条指令数据。医疗影响方面选择PathVQA[^fn4] 作为指令微调数据,为确保在该数据集上充分收敛,该研究参考LLaVA-Med[^fn5]将数据集重复采样至40万条指令数据。        

Benchmark方面,Tiny LVLM-eHub[^fn6]是广泛采用的MLLM通用多任务基准测试集,其包含5大项共42个细分数据集的综合评测,可以充分反映模型的通用多任务问答能力。文档图表问答能力则用UReader中的ChartQA和DocQA子集进行评测,医疗影响方面也使用PathVQA的测试集,评测开放和固定选项问答两类。        

实验

图3. 不同模型在各种数据配置训练后的评测结果

如图3所示,该研究对不同模型在各种数据配置下进行充分的实验。复现的LLaVA-1.5$^\dagger$,LLaVA-Doc$^\dagger$,LLaVA-Med$^\dagger$分别在通用多任务、文档图表、医疗影响的测试上取得了较好的性能,基本相当于现有公开模型的性能。在进行数据混合之后,可以发现LLaVA-Mix模型的通用多任务问答性能容易受到其他领域数据加入的干扰,从而在不同的混合配置下有不同程度的显著下降(综合分数下降7.0到9.1)。尤其对第9、10组实验来说,增加文档图表指令数据可以有效地提升相应的问答能力,但通用多任务问答性能会进一步下降5.1到8.6,**这会对数据层面的扩展造成比较大的障碍**。对比相同数据配置的LLaVA-MoLE和LLaVA-Mix模型,可以发现数据冲突现象被LLaVA-MoLE很好地缓解了,通用问答性能基本持平LLaVA-1.5的同时,文档图表和医疗影响方面的性能甚至可以进一步受益,均超越了单一领域微调的模型。    

图4. LoRA Rank的影响

在图4的实验中,调节LLaVA-Mix模型的LoRA rank,该研究发现在32-96的rank时,模型都会受到数据冲突的影响,即混合两个领域数据的模型都出现了通用多任务问答性能下降的现象。当LoRA rank提升到128时,模型容量显著增大,此时模型看起来缓解了数据冲突,但代价是提升4倍的额外参数量。相比之下,LLaVA-MoLE在较小的LoRA rank下就能够缓解数据冲突,无论在参数量和计算量上都更具优势。并且,在LoRA rank提升到128后,LLaVA-MoLE在缓解数据冲突的基础上能够实现更大幅度的性能提升,尤其在ChartQA上相比LLaVA-Mix提升了11.3%。

图5. LoRA专家数量的影响    

图5展示了不同LoRA专家数量对性能的影响,尽管使用2~3个专家就可以较好地缓解数据冲突,该研究发现继续增加专家数量可以带来更大的提升。虽然模型实际激活的参数量和计算量并没有变化,但潜在参数量的提升可以帮助模型有更大的余地去进行更细致的专家分配,前提是各个专家能够受到充分地训练。因此当专家数据继续提高之后,由于分配到每个专家的token数量下降,整体的性能也会回落。综合来说,专家数量的选择需要综合混合的领域数量和整体数据量进行考虑。

图6. 部分LLM层中的专家激活分布

最后,该研究在三个领域数据上分别可视化了部分LLM层中的专家激活分布。可以看到在某些层中(如第0、2层),各个专家的激活情况并不随领域变化,这些层对不同类型的token都按照类似的模式激活专家,但层与层之间还是存在专家激活分布的显著差异。在第10和28层中,都可以观察到不同领域的专家激活分布大不相同,并且综合所有层来看,0号专家略偏好于医疗影像数据。总的来说,由于负载均衡损失的约束,专家激活分布不会表现出对某一特定领域的显著偏好,这与一些现有MoE工作[^fn7]中观察到的现象类似。  

[^fn1]: Li, Lei, Yuwei Yin, Shicheng Li, Liang Chen, Peiyi Wang, Shuhuai Ren, Mukai Li et al. "M $^ 3$ IT: A Large-Scale Dataset towards Multi-Modal Multilingual Instruction Tuning." _arXiv preprint arXiv:2306.04387_ (2023).    
[^fn2]: Chen, Lin, Jisong Li, Xiaoyi Dong, Pan Zhang, Conghui He, Jiaqi Wang, Feng Zhao, and Dahua Lin. "Sharegpt4v: Improving large multi-modal models with better captions." _arXiv preprint arXiv:2311.12793_ (2023).
[^fn3]: Ye, Jiabo, Anwen Hu, Haiyang Xu, Qinghao Ye, Ming Yan, Guohai Xu, Chenliang Li et al. "Ureader: Universal ocr-free visually-situated language understanding with multimodal large language model." _arXiv preprint arXiv:2310.05126_ (2023).
[^fn4]: He, Xuehai, Zhuo Cai, Wenlan Wei, Yichen Zhang, Luntian Mou, Eric Xing, and Pengtao Xie. "Pathological visual question answering." _arXiv preprint arXiv:2010.12435_ (2020).
[^fn5]: Li, Chunyuan, Cliff Wong, Sheng Zhang, Naoto Usuyama, Haotian Liu, Jianwei Yang, Tristan Naumann, Hoifung Poon, and Jianfeng Gao. "Llava-med: Training a large language-and-vision assistant for biomedicine in one day." _arXiv preprint arXiv:2306.00890_ (2023).
[^fn6]: Shao, Wenqi, Yutao Hu, Peng Gao, Meng Lei, Kaipeng Zhang, Fanqing Meng, Peng Xu et al. "Tiny lvlm-ehub: Early multimodal experiments with bard." _arXiv preprint arXiv:2308.03729_ (2023).
[^fn7]: Jiang, Albert Q., Alexandre Sablayrolles, Antoine Roux, Arthur Mensch, Blanche Savary, Chris Bamford, Devendra Singh Chaplot et al. "Mixtral of experts." _arXiv preprint arXiv:2401.04088_ (2024).    

在CVer微信公众号后台回复:论文,即可下载论文和代码链接!快学起来!


大模型交流群成立

扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-大模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如大模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
OSCHINA&Gitee:2023大语言模型LLM技术报告将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B复旦大学生物医学研究院许杰团队报道Galectin-8通过结合LILRB4诱导肿瘤微环境中M-MDSC的作用【老照片】活动合集活动预告:稀松平常,稀奇古怪,都是爱的形状 | 故事开放麦混合专家系统里根本没专家?开源MoE模型论文引网友热议外企社招丨Dräger德尔格,行业全球领导者,15薪,六险一金,多样福利,偏爱留学生【买房】Dedham中心翻新阳光独栋 近小中高 近Dedham Mall单行道路尽头 | 3b2b 1,685sqft $75W北大等提出MoE-LLaVA:将多模态大模型稀疏化个人感慨之六十七 蠢提示词专场:从调整提示改善与LLMs的沟通,到利用LLMs优化提示效果ICLR 2024 | OCTAVIUS: 通过MoE缓解MLLM任务间的干扰加薪!大部分加拿大公司将大幅涨薪!十几个行业都受益!为大家缓解通货膨胀压力深入解析大模型主流微调方法:从LoRA、QLoRA到Flash Attention、增量学习2023 LLM技术报告—— LLM的工具和平台普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估LLM-first IDE:Code Agents 超级入口,软件开发的“Excel 时刻”个人感慨之六十五 人体器官指导价格LAMM:多模态指令微调数据集、框架、评测基准手把手教你,从零开始实现一个稀疏混合专家架构语言模型(MoE)如何高效部署大模型?CMU最新万字综述纵览LLM推理MLSys优化技术[评测]Colorful Colorfire Meow R15 评测国产CPU崛起:一文通俗理解指令集概念Science:AD治疗新靶点--多重活性TRIM11蛋白可发挥缓解tau病理和认知障碍的强大效力中科大发布2023年学术期刊负面清单!神刊Plos One、Molecules、ncology系列在列!一句指令自动玩手机,网上冲浪神器Mobile-Agent来了两首《生命的阳光》UTM中国留学生路边遭围殴:才刚来三周!Eaton附近男子用针扎人!比LoRA还快50%的微调方法来了!一张3090性能超越全参调优,UIUC联合LMFlow团队提出LISA个人感慨之六十六 双赢混合专家模型 (MoE) 详解打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了Cloudflare 的 ML 和 AI 之旅:MLOps 平台和最佳实践被OpenAI、Mistral AI带火的MoE是怎么回事?一文贯通专家混合架构部署
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。