Redian新闻
>
不用4个H100!340亿参数Code Llama在Mac可跑,每秒20个token,代码生成最拿手|Karpathy转赞

不用4个H100!340亿参数Code Llama在Mac可跑,每秒20个token,代码生成最拿手|Karpathy转赞

公众号新闻



  新智元报道  

编辑:桃子
【新智元导读】现在,34B Code Llama模型已经能够在M2 Ultra上的Mac运行了,而且推理速度超过每秒20个token,背后杀器竟是「投机采样」。

开源社区的一位开发者Georgi Gerganov发现,自己可以在M2 Ultra上运行全F16精度的34B Code Llama模型,而且推理速度超过了20 token/s。
毕竟,M2 Ultra的带宽有800GB/s。其他人通常需要4个高端GPU才能做到!
而这背后真正的答案是:投机采样(Speculative Sampling)。
Georgi的这一发现,瞬间引爆AI圈大佬的讨论。
Karpathy转发评论道,「LLM的投机执行是一种出色的推理时间优化」。

「投机采样」加速推理

在这个例子中,Georgi借助Q4 7B quantum草稿模型(也就是Code Llama 7B)进行了投机解码,然后在M2 Ultra上使用Code Llama34B进行生成。
简单讲,就是用一个「小模型」做草稿,然后用「大模型」来检查修正,以此加速整个过程。

GitHub地址:https://twitter.com/ggerganov/status/1697262700165013689
根据Georgi介绍,这些模型的速度分别为:
- F16 34B:~10 token/s
- Q4 7B:~80 token/s
如下是没有使用投机采样,标准F16采样示例:


然而,加入了投机采样策略后,速度可达~20 token/s。


Georgi表示,当然,速度会因生成的内容而异。但这种方法在代码生成方面似乎效果很好,因为大多数词库都能被草稿模型正确猜出。
如果使用「语法采样」的用例也可能从中受益匪浅。
投机采样能够实现快速推理的背后具体如何实现?
Karpathy根据此前谷歌大脑、UC伯克利、DeepMind的三项研究,做出了解释。

论文地址:https://arxiv.org/pdf/2211.17192.pdf

论文地址:https://arxiv.org/pdf/1811.03115.pdf

论文地址:https://arxiv.org/pdf/2302.01318.pdf
这取决于以下不直观的观察结果:
在单个输入token上转发LLM所需的时间,与在K个输入token上批量转发LLM所需的时间相同(K比你想象的要大)。
这个不直观的事实是因为采样受到内存的严重限制,大部分「工作」不计算,而是将Transformer的权重从VRAM读取到芯片上缓存中进行处理。
因此,如果要完成读取所有权重的工作,还不如将它们应用到整批输入向量中。、
我们之所以不能天真地利用这一事实,来一次采样K个token,是因为每N个token都取决于,我们在第N-1步时采样的token。这是一种串行依赖关系,因此基线实现只是从左到右逐个进行。
现在,巧妙的想法是使用一个小而廉价的草稿模型,首先生成一个由K个token组成的候选序列——「草稿」。然后,我们将所有这些信息一起批量送入大模型。
根据上述方法,这与只输入一个token的速度几乎一样快。
然后,我们从左到右检查模型,以及样本token预测的logits。任何与草稿一致的样本都允许我们立即跳转到下一个token。
如果有分歧,我们就会扔掉草稿模型,承担做一些一次性工作的成本(对草稿模型进行采样,并对后面的token进行前向传递)。
这在实践中行之有效的原因是,大多数情况下,draft token都会被接受,因为是简单的token,所以即使是更小的草稿模型也能接受它们。
当这些简单的token被接受时,我们就会跳过这些部分。大模型不同意的困难token会「回落」到原始速度,但实际上因为有额外的工作会慢一些。
所以,总而言之:这一怪招之所以管用,是因为LLM在推理时是受内存限制。在「批大小为1」的情况下,对感兴趣的单个序列进行采样,而大部分「本地 LLM」用例都属于这种情况。而且,大多数token都很「简单」。
HuggingFace的联合创始人表示,340亿参数的模型在一年半以前的数据中心之外,看起来非常庞大和难以管理。现在是笔记本就可以搞定了。
现在的LLM并不是单点突破,而是需要多个重要组件有效协同工作的系统。投机解码就是一个很好的例子,可以帮助我们从系统的角度进行思考。
参考资料:
https://twitter.com/ggerganov/status/1697262700165013689




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
华为最新大模型来了!盘古3.0问世,千亿参数规模3万亿tokens,放话「不作诗只做事」OpenAI科学家Karpathy周末造出「婴儿Llama2」!GPT-4辅助写500行纯C代码,速揽1.6k星Erklärung zur ZusammenarbeitLLM 与架构新纪元:适应代码生成模式,突破软件开发瓶颈微软发布基于LLM的代码生成神器,动动嘴就能写代码!开源打败闭源?Meta 即将推出开源代码生成平台 Code Llama,剑指 OpenAI Codex650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星突破,每秒200 Gbps的光收发器最高法判取消学生贷款违宪?以及AOC的愤怒火了132年!经典老牌𝙐𝙎𝙋𝘼(美国马球协会)打底衫来了!3折抢!真香港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构700亿参数LLaMA2训练加速195%,开箱即用的8到512卡LLaMA2全流程方案来了!Llama 2宇宙大爆炸!伯克利实测排第8,iPhone本地可跑,一大波应用免费玩,LeCun狂转老黄参投,MIT华人女科学家融资2亿美元!1万块H100训超千亿参数AI智能体最强LLaMA突然来袭!只改一个超参数,实现上下文3.2万token,多个任务打败ChatGPT、Claude 2树莓派上运行 Stable Diffusion,260MB 的 RAM「hold」住 10 亿参数大模型GPT-4最大竞争对手Claude 2震撼发布!一次10万token免费用,代码、数学、推理史诗级提升只有GPT-4可以自我改进,GPT-3.5都不行,MIT&微软代码生成实验新发现国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B记录小园春秋 中国玖瑰与日本绣线菊全球首款3nm芯片塞进电脑,苹果M3炸翻全场!128GB巨量内存,大模型单机可跑,性能最高飙升80%GPT-4被曝重大缺陷!35年前预言成真!所有LLM正确率都≈0,惹Karpathy马库斯惊呼!《我是梅花你是雪》&《暗光》Llama 2第二波划重点:过于「谨慎」、代码生成改进空间大5105 血壮山河之武汉会战 浴血田家镇 131800亿参数,性能碾压Llama 2,世界最强开源大模型Falcon 180B发布DALL·E 3内部实测效果惊人!Karpathy生成逼真灵动「美国小姐」,50个物体一图全包李敦白迫害老海归统一图像和文字生成的MiniGPT-5来了:Token变Voken,模型不仅能续写,还会自动配图了OpenAI联创Karpathy爱上羊驼:纯C代码实现婴儿Llama2,MacBook可运行,已揽1.6k星DALL·E 3瞬间生成素材,零成本制作数千万流水游戏!OpenAI总裁转赞1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4开源打败闭源?Meta即将推出开源代码生成平台Code Llama,剑指OpenAI Codex老黄参投!MIT华人女科学家融资2亿美元!1万块H100训超千亿参数AI智能体正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。