Redian新闻
>
比LoRA还快50%的微调方法来了!一张3090性能超越全参调优,UIUC联合LMFlow团队提出LISA

比LoRA还快50%的微调方法来了!一张3090性能超越全参调优,UIUC联合LMFlow团队提出LISA

公众号新闻
机器之心专栏
机器之心编辑部


2022 年底,随着 ChatGPT 的爆火,人类正式进入了大模型时代。然而,训练大模型需要的时空消耗依然居高不下,给大模型的普及和发展带来了巨大困难。面对这一挑战,原先在计算机视觉领域流行的 LoRA 技术成功转型大模型 [1][2],带来了接近 2 倍的时间加速和理论最高 8 倍的空间压缩,将微调技术带进千家万户。


但 LoRA 技术仍存在一定的挑战。一是 LoRA 技术在很多任务上还没有超过正常的全参数微调 [2][3][4],二是 LoRA 的理论性质分析比较困难,给其进一步的研究带来了阻碍。


UIUC 联合 LMFlow 团队成员对 LoRA 的实验性质进行了分析,意外发现 LoRA 非常侧重 LLM 的底层和顶层的权重。利用这一特性,LMFlow 团队提出一个极其简洁的算法:Layerwise Importance Sampled AdamW(LISA)。



  • 论文链接:https://arxiv.org/abs/2403.17919

  • 开源地址:https://github.com/OptimalScale/LMFlow


LISA 介绍



LISA 算法的核心在于:


- 始终更新底层 embedding 和顶层 linear head;

- 随机更新少数中间的 self-attention 层,比如 2-4 层。



出乎意料的是,实验发现该算法在指令微调任务上超过 LoRA 甚至全参数微调。



更重要的是,其空间消耗和 LoRA 相当甚至更低。70B 的总空间消耗降低到了 80G*4,而 7B 则直接降到了单卡 24G 以下!



进一步的,因为 LISA 每次中间只会激活一小部分参数,算法对更深的网络,以及梯度检查点技术(Gradient Checkpointing)也很友好,能够带来更大的空间节省。



在指令微调任务上,LISA 的收敛性质比 LoRA 有很大提升,达到了全参数调节的水平。



而且,由于不需要像 LoRA 一样引入额外的 adapter 结构,LISA 的计算量小于 LoRA,速度比 LoRA 快将近 50%。



理论性质上,LISA 也比 LoRA 更容易分析,Gradient Sparsification、Importance Sampling、Randomized Block-Coordinate Descent 等现有优化领域的数学工具都可以用于分析 LISA 及其变种的收敛性质。


一键使用 LISA


为了贡献大模型开源社区,LMFlow 现已集成 LISA,安装完成后只需一条指令就可以使用 LISA 进行微调:



如果需要进一步减少大模型微调的空间消耗,LMFlow 也已经支持一系列最新技术:



如果在使用过程中遇到任何问题,可通过 github issue 或 github 主页的微信群联系作者团队。LMFlow 将持续维护并集成最新技术。 


总结


在大模型竞赛的趋势下,LMFlow 中的 LISA 为所有人提供了 LoRA 以外的第二个选项,让大多数普通玩家可以通过这些技术参与到这场使用和研究大模型的浪潮中来。正如团队口号所表达的:让每个人都能训得起大模型(Large Language Model for All)。


[1] Hu, Edward J., et al. "Lora: Low-rank adaptation of large language models." ICLR 2022.

[2] Dettmers, Tim, et al. "Qlora: Efficient finetuning of quantized llms." Advances in Neural Information Processing Systems 36 (2024).

[3] Ding, Ning, et al. "Delta tuning: A comprehensive study of parameter efficient methods for pre-trained language models." arXiv preprint arXiv:2203.06904 (2022).

[4] Lialin, Vladislav, et al. "Stack more layers differently: High-rank training through low-rank updates." arXiv preprint arXiv:2307.05695 (2023).


机器之心 AI 技术论坛「视频生成技术与应用 — Sora 时代」,将于 4.13 在北京海淀举办。

论坛聚焦于 Sora、视频生成技术、多模态大模型等前沿领域的技术突破和应用实践,助力企业和从业者紧跟技术发展潮流、掌握最新技术进展与技术突破。

早鸟期即将结束,快来锁定入场席位吧!

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
顶刊TPAMI 2024!黄高团队提出EfficientTrain++:高效视觉骨干训练方法二岩藻糖基乳糖滴度超33g/L,中国农大团队提出高效从头合成HMO新策略,无副产物3-FL产生语言是一门艺术全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型GPT-4绝对性能暴涨74.4%!UIUC苹果华人团队提出CodeAct,用Python代码统一LLM智能体行动浙大等团队提出全新「自我对比」策略,有效提高大模型的反思效果UCSD背刺UCLA成为最受申请者欢迎分校,UC系申请人数持续突破20万!无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式谷歌狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理训练最快选择通义千问再开源,Qwen1.5带来六种体量模型,性能超越GPT3.5深入解析大模型主流微调方法:从LoRA、QLoRA到Flash Attention、增量学习LeCun转发!大连理工卢湖川、贾旭团队提出可插入图像/视频/3D生成的StableIdentityICML 2024 | 超越LoRA!港科大提出FourierFT:新型傅立叶微调!训练参数大幅减少时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 37036 血壮山河之枣宜会战 “扑朔迷离”南瓜店 13陈丹琦团队提出最新MoE架构LoryLLaVA-MoLE:稀疏混合LoRA专家缓解指令微调MLLM中的数据冲突李开复提出「PMF 不再适用大模型 AI-First 创业,要追求 TC-PMF」,如何理解?【求职战报】全球金融交易平台Deutsche Börse Systems销售运营面试邀约!集体出走的Stability AI 发布全新代码大模型,3B以下性能最优,超越Code Llama和DeepSeek-Coder性能超越 GPT-4 Turbo!「商汤日日新」大升级,国产大模型超市开张了陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好高通 X Plus 芯片发布,性能超越 M3,AI 能力是亮点只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调CVPR 2024 | 腾讯提出LORS:低秩残差结构,瘦身模型不掉点!即插即用!上交提出Long-CLIP:解锁CLIP的长文本功能面壁智能低调开源大模型“理科状元”!LeetCode 周赛超越80%人类选手,推理性能超 Llama3-70B童年忆事 一、三虎一阶优化算法启发,北大林宙辰团队提出具有万有逼近性质的神经网络架构设计方法Mamba视觉新主干!悉尼大学&商汤提出LocalMamba:新的视觉状态空间模型中国正在掩盖一场经济危机【解字】品“头”论“足”顶刊TPAMI 2024!北大林宙辰团队提出具有万有逼近性质的神经网络架构的设计方法外企社招丨Dräger德尔格,行业全球领导者,15薪,六险一金,多样福利,偏爱留学生斯坦福团队提出新型抗衰老疗法,单次注射可恢复小鼠免疫系统「年轻状态」,效果持久明显
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。