Redian新闻
>
陈丹琦团队提出低内存高效零阶优化器MeZO,单卡A100可训练300亿参数模型

陈丹琦团队提出低内存高效零阶优化器MeZO,单卡A100可训练300亿参数模型

科技

深度学习自然语言处理 原创
作者:辰宜

今天下午突然发现了一篇陈丹琦大佬的巨作~ 大家一起来简单瞅瞅。

本文旨在介绍一种用于fine-tuning语言模型(LM)的低内存优化器——MeZO,内存减少多达12倍。使用单个A100 800G GPU,MeZO可以训练一个300亿参数的模型。

论文:Fine-Tuning Language Models with Just Forward Passes
地址:https://arxiv.org/abs/2305.17333
代码:https://github.com/princeton-nlp/MeZO

过去的方法存在的问题,用于优化大型LM的反向传播算法需要大量的内存,因此需要一种低内存优化器。

本文提出的MeZO算法是一种低内存零阶优化器,通过SPSA算法来计算梯度估计,仅需要两次前向传递。MeZO算法可以在不影响LM性能的情况下,大幅减少内存占用,优化各种模型和下游任务。

图 1:OPT-13B 使用零样本、上下文学习 (ICL)、MeZO和 Adam (FT) 微调的结果

方法与实验

本文的MeZO算法是基于零阶优化的理论基础。

MeZO伪代码

MeZO算法基于SPSA算法的低内存优化器,通过同时扰动每个权重矩阵来节省计算时间,并且可以与其他梯度优化器结合使用,例如SGD with momentum和Adam。

其在各种模型和下游任务中表现出色,相比于Adam的完全fine-tuning,性能相当,并大幅降低了内存成本。MeZO还可以优化非可微分目标,并且适用于全参数调整和前缀调整。

下面看下所有的实验情况:

在RoBERTa-large上的实验
OPT-13B上的实验(有1000个例子)
OPT-30B和OPT-66B上的实验(有1000个例子)
具有不可微分目标的 MeZO
MultiRC上不同OPT模型和调优方法的GPU内存消耗
可以使用特定硬件和算法进行调整的最大 OPT 模型

做个总结

最后总结下本文的所有内容:

  1. MeZO算法可以极大的减少内存的使用,并不影响LM性能。
  2. 用零阶优化理论可以优化具有高维参数的大型LM。
  3. 基于全局和局部有效秩,可以证明零阶随机梯度下降的收敛速度,以及全局收敛速度会因有效秩而变慢。
  4. 接下来需要将MeZO和其他低内存方法相结合,并研究MeZO在其他领域(如精简和数据集选择)中的适用性。

这可是个大创新,又向人人都能训练大模型迈进一大步,好开心~



进NLP群—>加入NLP交流群

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一万亿参数,512个昇腾910训练,华为PanGu-Σ大模型来了300美元复刻ChatGPT九成功力,GPT-4亲自监考,130亿参数开源模型「小羊驼」来了英伟达AI芯片劲敌来了!AMD推出MI300X,可运行多达800亿参数模型参数是ChaGPT的近6倍!英特尔公布AI大模型Aurora genAI,具备1万亿参数国内高校首例!支持千亿参数的大模型训练GPT-4关键信息遭泄露;北京将发4000万元算力券;百川智能推130亿参数大模型丨AIGC大事日报650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目收割人类 III 之第十六章 陷落(7)GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑减少内存消耗、降低大模型训练成本,ACL杰出论文作者揭秘CAME优化器马腾宇团队新出大模型预训练优化器,比Adam快2倍,成本减半高通押注混合AI,终端侧或将运行100亿参数模型650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星比Adam快2倍!斯坦福提出Sophia:大模型预训练新优化器,成本减半!复旦MOSS升级版开源上线;马斯克启动TruthGPT;海康训练出百亿参数CV大模型丨AIGC大事周报复旦新作:单机微调650亿参数大模型;蚂蚁、百度参投AI大模型创企;杭州检方对AI换脸案提起公诉丨AIGC大事日报参数是 ChatGPT 的近 6 倍!英特尔公布 AI 大模型 Aurora genAI,具备 1 万亿参数陈丹琦ACL学术报告来了!详解大模型「外挂」数据库7大方向3大挑战,3小时干货满满永远的光我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果7 Papers & Radios | 英伟达把GPT-4塞进我的世界;比Adam快2倍的大模型预训练优化器ICLR 2023|节省95%训练开销,清华黄隆波团队提出强化学习专用稀疏训练框架李开复AI2.0新公司零一万物亮相,百亿参数模型正在内测第四范式开源强化学习研究通用框架,支持单智能体、多智能体训练,还可训练自然语言任务!训练速度提升17%650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!Meta重新定义多模态!北大校友共同一作,70亿参数文生图模型击败Diffusion大模型训练成本降低近一半!新加坡国立大学最新优化器已投入使用碾压LLaMA,「猎鹰」彻底开源!400亿参数,万亿token训练,霸榜Hugging Face奇闻怪谈: 少年官的故事后续【糗事,笑话】再聊一两个值得自嘲的尬事儿 ~义工随笔2The Winter's Tale650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了CVPR 2023 | 可扩展的视频基础模型预训练范式:训练出首个十亿参数量视频自监督大模型ICML 2023 | 清华团队提出使用低维优化求解器求解高维/大规模优化问题百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。