Redian新闻
>
单卡跑Llama 70B快过双卡,微软硬生生把FP6搞到了A100里 | 开源

单卡跑Llama 70B快过双卡,微软硬生生把FP6搞到了A100里 | 开源

公众号新闻
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

FP8和更低的浮点数量化精度,不再是H100的“专利”了!

老黄想让大家用INT8/INT4,微软DeepSpeed团队在没有英伟达官方支持的条件下,硬生生在A100上跑起FP6

测试结果表明,新方法TC-FPx在A100上的FP6量化,速度接近甚至偶尔超过INT4,而且拥有比后者更高的精度

在此基础之上,还有端到端的大模型支持,目前已经开源并集成到了DeepSpeed等深度学习推理框架中。

这一成果对大模型的加速效果也是立竿见影——在这种框架下用单卡跑Llama,吞吐量比双卡还要高2.65倍。

一名机器学习研究人员看了后表示,微软的这项研究简直可以用crazy来形容。

表情包也第一时间上线,be like:

英伟达:只有H100支持FP8。

微软:Fine,我自己搞定。

那么,这个框架到底能实现什么样的效果,背后又采用了什么样的技术呢?

用FP6跑Llama,单卡比双卡还快

在A100上使用FP6精度,带来的是内核级的性能提升

研究人员选取了不同大小的Llama模型和OPT模型之中的线性层,在NVIDIA A100-40GB GPU平台上,使用CUDA 11.8进行了测试。

结果相比于英伟达官方的cuBLAS(W16A16)和TensorRT-LLM(W8A16),TC-FPx(W6A16)度提升的最大值分别是2.6倍和1.9倍。

相比于4bit的BitsandBytes(W4A16)方法,TC-FPx的最大速度提升则是达到了8.9倍。

(W和A分别代表权重量化位宽和激活量化位宽)

归一化数据,以cuBLAS结果为1

同时,TC-FPx内核还减少了对DRAM内存的访问,并提高了DRAM带宽利用率和Tensor Cores利用率,以及ALU和FMA单元的利用率。

在TC-FPx基础之上设计的端到端推理框架FP6-LLM,也给大模型带来了显著的性能提高。

以Llama-70B为例,用FP6-LLM在单卡上的运行吞吐量,比FP16在双卡上还要高出2.65倍,在16以下的批大小中的延迟也低于FP16。

而对于参数量小一些的模型OPT-30B(FP16也使用单卡),FP6-LLM同样带来了明显的吞吐量提升和延迟降低。

而且单卡FP16在这种条件下最多支持的批大小只有4,FP6-LLM却可以在批大小为16的情况下正常运行。

那么,微软团队是怎样实现在A100上运行FP16量化的呢?

重新设计内核方案

为了实现对包括6bit在内精度的支持,TC-FPx团队设计了一个统一的内核方案,可以支持不同位宽的量化权重。

相比于传统的双内核方法,TC-FPx通过将去量化和矩阵乘法融合在单个内核中,减少了内存访问次数,提高了性能。

实现低精度量化的核心奥义则是通过去量化方式,将FP6精度的数据“伪装”成FP16,然后按照FP16的格式交给GPU进行运算。

同时团队还利用了位级预打包技术,解决GPU内存系统对非2的幂次位宽(如6-bit)不友好的问题。

具体来说,位级预打包是在模型推理之前对权重数据进行重新组织,包括将6-bit量化的权重重新排列,以便它们能够以GPU内存系统友好的方式进行访问。

此外,由于GPU内存系统通常以32位或64位的块进行数据访问,位级预打包技术将还会6-bit权重打包,使得它们能够以这些对齐的块的形式存储和访问。

预打包完成后,研究团队使用SIMT核心的并行处理能力,对寄存器中的FP6权重执行并行去量化,生成FP16格式的权重。

去量化后的FP16权重在寄存器中被重构,然后送入Tensor Core,使用重构后的FP16权重执行矩阵乘法运算,完成线性层的计算。

在此过程中,团队利用了SMIT核心的位级并行性,提高了整个去量化过程的效率。

而为了权重重构任务能够并行运行,团队还使用了一种并行权重拼接技术。

具体来说,每个权重被分割成几个部分,每个部分的位宽是2的幂次(如把6分割成2+4或4+2)

在去量化之前,权重首先从共享内存加载到寄存器中。由于每个权重被分割成多个部分,需要在运行时在寄存器级别重构完整的权重。

为了减少运行时的开销,TC-FPx提出了一种并行提取和拼接权重的方法。这种方法使用两组寄存器来存储32个FP6权重的片段,并行地重构这些权重。

同时,为了并行提取和拼接权重,需要确保初始数据布局满足特定的顺序要求,因此TC-FPx通过在运行前对权重片段进行重排。

此外,TC-FPx还设计了一个软件流水线,将去量化步骤与Tensor Core的矩阵乘法操作融合在一起,通过指令级并行性提高了整体的执行效率。

论文地址:
https://arxiv.org/abs/2401.14112
参考链接:
https://twitter.com/rohanpaul_ai/status/1784599257384727044

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
面壁低调开源新模型:早于Llama 3、比肩Llama 3、推理超越Llama 3!网友缝合Llama3 120B竟意外能打,轻松击败GPT2-chatbot和GPT-4中国将失去一个最大的机会?《惦记》&《祝你祝你》女主播卖车送福利;假提豪车;普利司通的忧伤;医美直播凉凉“工资翻倍,微软中国近800名AI人才打包运到美国,还包家属签证?”官方回应来了……最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍9888 元起,微软 Surface Pro 10 商用版发布:搭载酷睿 Ultra 处理器、防眩光屏幕,支持 5G微软一夜干翻苹果Mac!GPT-4o装进全家桶,微软把全世界PC都AI了24GB单卡全量微调Llama 3-8B,仅需添加一行代码闭源赶超GPT-4 Turbo、开源击败Llama-3-70B,歪果仁:这中国大模型真香京妞又造假了!婶可忍, 叔不可忍?(真相截图)澜舟坚持四两拨千斤:ToB场景落地,10B参数大模型足矣百花迎春礼赞中华万字长文带你梳理Llama开源家族:从Llama-1到Llama-3英年早婚的“亚洲最帅男星”,居然割过双眼皮?字节开源大模型量化新思路,2-bit量化模型精度齐平fp1670B模型秒出1000token,代码重写超越GPT-4o,来自OpenAI投资的代码神器Cursor团队面壁智能低调开源大模型“理科状元”!LeetCode 周赛超越80%人类选手,推理性能超 Llama3-70B新开源之王来了!1320亿参数,逻辑数理全面打赢Grok,还比Llama2-70B快1倍微软将中国近800名AI人才打包运到美国,还包家属签证,微软回应…Sora不开源,微软给你开源!全球最接近Sora视频模型诞生,12秒生成效果逼真炸裂骁龙最强AI芯能力下放:小旗舰8s发布,端侧运行10B大模型,小米Civi首发热议!微软将中国近800名AI人才打包运到美国,还包家属签证,微软回应……发布几小时,微软秒删媲美GPT-4开源大模型!竟因忘记投毒测试开源日报 | 微软AI程序员登场,马斯克开源Grok;Open-Sora全面开源95后男生把梳子「玩」火了!还是非遗手作木梳!挑战OpenAI,微软自研5000亿参数绝密武器曝光!前谷歌DeepMind高管带队霉霉粉丝上大分!英国这些大学毕业生把Taylor写进论文,成绩居然...微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行30 多年前被 Linux、Windows “ 灭掉 ” 的操作系统 MS-DOS 4.0,微软在 GitHub 上开源了刚刚!马斯克开源 Grok:参数量近 Llama 四倍,成全球最大开源模型最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上安远AI&北京大学:2024基础模型的负责任开源-超越开源闭源的二元对立:负责任开源的内涵、实践与方案报告i7-12700KF,4070S、7700XT、4060、4070Ti S游戏主机
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。