Redian新闻
>
650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目

650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目

公众号新闻
明敏 发自 凹非寺
量子位 | 公众号 QbitAI

650亿参数大模型的预训练方案,发布即开源。

训练速度较传统方案提升38%

这就是由Colossal-AI最新发布的类LLaMA基础大模型预训练方案。

要知道,在“百模大战”背景下,谁拥有自家大模型,往往被视为核心竞争力。

在这个节点下,愿意开源大模型的公司少之又少。

但自己从头训练一个大模型,对技术、资金都有很高要求。

由此,Colossal-AI最新的开源动作,可以说是应时势所需了。

并且它还不限制商业使用,开箱即用仅需4步

具体项目有哪些内容?一起往下看~

开源地址:https://github.com/hpcaitech/ColossalAI

32张A100/A800即可使用

实际上,自从Meta开源LLaMA后,掀起了一波微调项目热潮,如Alpaca、Vicuna、ColossalChat等都是在其基础上打造的。

但是LLaMA只开源了模型权重且限制商业使用,微调能够提升和注入的知识与能力也相对有限。

对于真正想要投身大模型浪潮的企业来说,训练自己的核心大模型非常重要。

开源社区也此前已献了一系列工作:

  • RedPajama:开源可商用类LLaMA数据集(无训练代码和模型)

  • OpenLLaMA:开源可商用类LLaMA 7B/13B模型,使用EasyLM基于JAX和TPU训练

  • Falcon:开源可商用类LLaMA 7B/40B模型(无训练代码)

但这些都还不够,因为对于最主流的PyTorch+GPU生态,仍缺乏高效、可靠、易用的类LLaMA基础大模型预训练方案

所以Colossal-AI交出了最新的开源答卷。

仅需32张A100/A800,即可搞定650亿参数类LLaMA大模型预训练,训练速度提升38%。

而像原生PyTorch、FSDP等,则因显存溢出无法运行该任务。

Hugging Face accelerate、DeepSpeed、Megatron-LM也未对LLaMA预训练进行官方支持。

开箱即用、4步搞定

而这一项目真正上手起来也很简易。共有四步:

  • 1、安装Colossal-AI

  • 2、安装其他依赖项

  • 3、数据集

  • 4、运行命令

具体代码如下:

第一步、安装Colossal-AI。

git clone -b example/llama https://github.com/hpcaitech/ColossalAI.git
cd ColossalAI
# install and enable CUDA kernel fusion
CUDA_EXT=1 pip install .

第二步、安装其他依赖项。

cd examples/language/llama
# install other dependencies
pip install -r requirements.txt
# use flash attention
pip install xformers

第三步、数据集。

默认数据集togethercomputer/RedPajama-Data-1T-Sample将在首次运行时自动下载,也可通过-d—dataset指定自定义数据集。

第四步、运行命令。

已提供7B和65B的测速脚本,仅需根据实际硬件环境设置所用多节点的host name即可运行性能测试。

cd benchmark_65B/gemini_auto
bash batch12_seq2048_flash_attn.sh

对于实际的预训练任务,使用与速度测试一致,启动相应命令即可,如使用4节点*8卡训练65B的模型。

colossalai run --nproc_per_node 8 --hostfile YOUR_HOST_FILE --master_addr YOUR_MASTER_ADDR pretrain.py -c '65b' --plugin "gemini" -l 2048 -g -b 8 -a

如果使用Colossal-AI gemini_auto并行策略,可便捷实现多机多卡并行训练,降低显存消耗的同时保持高速训练

还可根据硬件环境或实际需求,选择流水并行+张量并行+ZeRO1等复杂并行策略组合。

其中,通过Colossal-AI的Booster Plugins,用户可以便捷自定义并行训练,如选择Low Level ZeRO、Gemini、DDP等并行策略。

Gradient checkpointing通过在反向传播时重新计算模型的activation来减少内存使用。

通过引入Flash attention机制加速计算并节省显存。用户可以通过命令行参数便捷控制数十个类似的自定义参数,在保持高性能的同时为自定义开发保持了灵活性。

Colossal-AI最新的ShardFormer极大降低了使用多维并行训练LLM的上手成本。

现已支持包括LLaMA的多种等主流模型,且原生支持Huggingface/transformers模型库。

无需改造模型,即可支持多维并行(流水、张量、ZeRO、DDP等)的各种配置组合,能够在各种硬件配置上都发挥卓越的性能。

Colossal-AI:大模型系统基础设施

带来如上新工作的Colossal-AI,如今已是大模型趋势下的明星开发工具和社区了。

Colossal-AI上述解决方案已在某世界500强落地应用,在千卡集群性能优异,仅需数周即可完成千亿参数私有大模型预训练

上海AI Lab与商汤等新近发布的InternLM也基于Colossal-AI在千卡实现高效预训练。

自开源以来,Colossal-AI多次在GitHub热榜位列世界第一,获得 GitHub Star超3万颗,并成功入选SC、AAAI、PPoPP、CVPR、ISC等国际 AI 与HPC顶级会议的官方教程,已有上百家企业参与共建Colossal-AI生态。

它由加州伯克利大学杰出教授 James Demmel 和新加坡国立大学校长青年教授尤洋领导开发。

Colossal-AI基于PyTorch,可通过高效多维并行、异构内存等,主打为AI大模型训练/微调/推理的开发与应用成本,降低GPU需求等。

其背后公司潞晨科技,近期获得数亿元A轮融资,已在成立18个月内已迅速连续完成三轮融资

开源地址:https://github.com/hpcaitech/ColossalAI

参考链接:https://www.hpc-ai.tech/blog/large-model-pretraining

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了大妈是一种威武的存在32卡176%训练加速,开源大模型训练框架Megatron-LLaMA来了32k上下文可商用!羊驼进化成长颈鹿,“开源大模型之最”百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元增强版开源Llama2 终可商用;5G消息真的要来了,工信部最新通知;微软英伟达市值一夜飙升1750亿美元 | AIoT情报5074 血壮山河之武汉会战 黄广战役 6性能超越Llama2-13B,可免费商用,姚星创业公司开源百亿参数通用大模型700亿参数LLaMA2训练加速195%,开箱即用的8到512卡LLaMA2全流程方案来了!Meta发布首个开源可商用LLM,硬刚OpenAI和谷歌两大巨头马腾宇团队新出大模型预训练优化器,比Adam快2倍,成本减半国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上AMD放大!苏妈甩出最强AI芯片叫板老黄,可跑800亿参数大模型比Adam快2倍!斯坦福提出Sophia:大模型预训练新优化器,成本减半!1天训完45亿参数大模型!高校计算能力首次比肩科技巨头爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯国产语音对话大模型来了:李开复零一万物参与,中英双语多模态,开源可商用中文版开源Llama 2同时有了语言、多模态大模型,完全可商用2023回国 农家乐一日游(多图)火星乐园第三部《灰界》第十八章 信心价值复旦新作:单机微调650亿参数大模型;蚂蚁、百度参投AI大模型创企;杭州检方对AI换脸案提起公诉丨AIGC大事日报Meta“搞大事”了:发布GPT“平替”Llama 2,开源、免费、还可商用!免费、可商用,阿里云开源70亿参数通义千问大模型54百亿参数大模型进化树重磅更新!85页盘点LLM发展史,附最详细prompt技巧安卓手机上跑15亿参数大模型,12秒不到就推理完了650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!一个开源方案,极速预训练650亿参数LLaMA出事的陈师兄GPT-4关键信息遭泄露;北京将发4000万元算力券;百川智能推130亿参数大模型丨AIGC大事日报我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果7 Papers & Radios | 英伟达把GPT-4塞进我的世界;比Adam快2倍的大模型预训练优化器全面拥抱大模型!腾讯正式开放全自研通用大模型:参数规模超千亿、预训练语料超 2 万亿 tokens开源大模型FLM-101B:训练成本最低的超100B参数大模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。