Redian新闻
>
24GB单卡全量微调Llama 3-8B,仅需添加一行代码

24GB单卡全量微调Llama 3-8B,仅需添加一行代码

公众号新闻


ChatGPT问世以来,大型语言模型在各个领域引起了广泛兴趣,并催生了基于语言模型的应用,包括但不限于自动文本生成、信息检索、智能助理、聊天机器人以及智能教育系统等。这些应用的表现和效果往往取决于模型本身的对话能力、逻辑推理能力以及上下文理解能力等核心特征。在实际应用中,为了满足不同领域对模型能力的个性化需求,研究人员通常会基于预训练的大型语言模型进行微调,以适应特定任务的要求。

然而,微调具有一定规模的语言模型需要大量的计算资源,其中显存容量往往成为主要限制因素。主流的优化算法如Adam在训练过程中需要存储模型参数、梯度信息以及优化器状态。举例来说,当训练一个拥有70亿个参数的模型时,以上参数将占用超过120GB的显卡内存。然而,主流消费级显卡如RTX 3090/4090仅有24GB的显存,而AI训练专用显卡A100的显存也仅有80GB。因此,训练规模较大的模型不可避免地对计算资源提出了巨大需求,而且由于需要多块显卡并行训练,也带来了工程实现上的诸多挑战。

在本研究中,来自香港中文大学(深圳)的研究者通过将传统的块坐标下降算法与大模型优化结合,提出BAdam算法,将内存开销大幅降至原来的约六分之一,实现了在一张24GB显存的RTX 3090上全参数微调Llama 2-7b和Llama 3-8b模型。从优化角度来看,BAdam的损失函数收敛速率快于LoRA,且单次迭代所需时间约为LoRA的一半。从下游任务表现来看,由BAdam训练得到的Llama 2-7b, Llama 3-8b模型,在MT bench score上均领先同等参数量下的LoRA算法,并大幅领先基于SGD更新的LOMO算法。此外,在SUPERGLUE的基准测试中,由BAdam训练的RoBERTa-large模型在下游任务性能上与使用Adam进行全参数微调的模型相当,显著优于LoRA 。

为了更好的帮助大家了解这项研究,机器之心最新一期线上分享邀请到论文作者、香港中文大学(深圳)数据科学学院在读博士生罗琪竣,为大家解读他们的这项工作 。

分享主题:24GB单卡高效训练Llama 3-8B,仅需添加一行代码

嘉宾介绍:琪竣为香港中文大学(深圳)数据科学学院在读博士生,导师为李肖教授。本科毕业于香港中文大学(深圳)计算机专业,研究兴趣包含机器学习、优化理论,目前的研究重点为大语言模型的优化和泛化。

分享摘要:本次分享将概述当前参数高效微调算法及其局限性,进而引出BAdam算法设计并分析其算法特性,包含显存占用、单次迭代所需运算、以及收敛性质,随后将基于以上分析重点介绍BAdam算法实现技巧,以及超参数选取策略。
  • 论文链接:https://arxiv.org/abs/2404.02827

  • 代码链接:https://github.com/Ledzy/BAdam

直播间:关注机器之心机动组视频号,立即预约直播。

机动组技术交流群:添加小助手好友备注「研究方向」,获取行业一手资讯,欢迎大家进群聊聊。



机器之心 · 机动组
机动组聚焦于学术研究、工程实践与产业应用,筛选前沿、专业、实用内容,不定期组织学术研讨、技术交流与实战分享等欢迎所有 AI 领域技术从业者关注


点击阅读原文,直达机动组官网,查看往期回顾。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
谷歌Python团队全员被裁——负责内部Python所有基础设施、曾对数亿行代码执行自动重构研究:99%的汽车都添加一物,威胁人体健康几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling机械革命推出无界 M7 台式电脑主机:i7-13620H + 16GB + 1TB,3199 元机械革命无界 15 Pro 锐龙版笔记本开售:R7 8845HS + 24GB + 1TB 售 4299 元Llama3-8B秒杀700亿巨兽?北大博士生等全新「BoT」框架推理暴涨70倍,24点图形推理一步成神从 160 行代码到 200 亿安装量:Curl 的传奇故事大模型+蒙特卡洛树搜索,一招让LLaMa-3 8B奥数水平直逼GPT-4吃货快看!Buffalo Wild Wings 鸡翅和薯条All You Can Eat,仅需$19.99宏碁发布非凡 Go 14 英寸轻薄本:标压 i5-12450H / 16+512GB,预售 2999 元用 ChatGPT 写 “Hello, world!”,首席资深工程师要写 40+ 行代码?我们就是黑手党,怎么着只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调消息称英伟达 Blackwell“B100”GPU 将配 192GB HBM3e 显存,B200 配 288GB 显存华硕上架破晓 Pro14 2024 款笔记本:Ultra 5-125H + 32GB + 1TB,5599 元今日arXiv最热NLP大模型论文:Github万星!北航发布零代码大模型微调平台LlamaFactory6.1/9.1起租|单间|malden近地铁步行3分钟大house 5B1B单间租金880,包杂费,带家具杀疯了!全面超越Llama3的强悍开源模型,仅9B,1000k上下文;GPT-4级别模型1年降价1万倍陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替《东风第一枝 - 元夕》58行代码把Llama 3扩展到100万上下文,任何微调版都适用RAG还是微调?万字长文总结大模型微调技能图谱速度秒掉GPT-4o、22B击败Llama 3 70B,Mistral AI开放首个代码模型模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了仅用250美元,Hugging Face技术主管手把手教你微调Llama 3ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量单卡跑Llama 70B快过双卡,微软硬生生把FP6搞到了A100里 | 开源宾州詹金斯植物园(Jenkins Arboretum),幽幽小景250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞江波龙展示 FORESEE LPCAMM2 笔记本内存:最高 64GB、7500MT/sRust 生态纯属炒作?3 年写了 10 万行代码的开发者吐槽:当初用 Rust 是被忽悠了脚踝的灵活性马斯克:聪明的人要多生育ISSTA 2024 | 北大提出CoderUJB,面向代码大模型的可执行多任务代码评估基准揭示真实能力与局限​第一个基于Llama 3的多模态大模型!Bunny-Llama-3-8B-V上线!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。