Redian新闻
>
70B模型秒出1000token,代码重写超越GPT-4o,来自OpenAI投资的代码神器Cursor团队

70B模型秒出1000token,代码重写超越GPT-4o,来自OpenAI投资的代码神器Cursor团队

公众号新闻
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

70B模型,秒出1000token,换算成字符接近4000!

研究人员将Llama3进行了微调并引入加速算法,和原生版本相比,速度足足快出了快了13倍!

不仅是快,在代码重写任务上的表现甚至超越了GPT-4o。

这项成果,来自爆火的AI编程神器Cursor背后团队anysphere,OpenAI也参与过投资。

要知道在以快著称的推理加速框架Groq上,70B Llama3的推理速度也不过每秒300多token。

Cursor这样的速度,可以说是实现了近乎即时的完整代码文件编辑。

有人直呼好家伙,如果把Cursor魔改后的Llama3放到Groq上,是不是每秒能跑出上万token了。

更是有人激动地说,在大模型领域,我们正在消除“延时”这一概念。

引入全新推理加速算法

作者此次设计的加速方法,主要是用来解决一种名为“Fast Apply”的任务,即对代码内容进行快速修改并应用。

首先需要说明的是,虽然说任务最终实现的效果是代码的局部修改,但是实际操作过程中,输出并非是只有变化的内容,而是直接全局重写

这样做的原因,是团队在预先测试后做出的选择——他们发现,除了Claude-3-Opus,大多数模型在真·局部修改任务上的表现都不理想。

之所以会这样,主要有以下三个原因:

  • 首先是直接重写时会输出更多token,使得有更多的前向传递来确定正确的解决方案。

  • 其次,模型的训练数据也大部分都是完整代码,对局部修改相对陌生。

  • 此外,大模型糟糕的数学运算也无法保证能在输出差异时正确处理行号。

(不过作者认为这仍然是一个有潜力的未来研究方向。)

确定了采用全局重写的方案后,Cursor团队使用了任务相关的数据对Llama3进行了微调。

所采用的数据有真实编辑数据与合成数据两大来源,按照1:4的比例进行了混合。

其中合成数据是指用GPT-4生成代码编辑的建议,然后用其他模型将这些建议“应用”到原始代码上。

为了提高数据集的质量,作者还对小文件、重复文件和无变化样本进行了下采样。

为了评估这些模型的表现,作者让它们处理了450个代码编辑任务(每个都不超过400行),并用Claude3-Opus对输出进行了打分。

最终,作者微调出的70B Llama3模型,表现几乎与Claude3-Opus-diff匹配,并且优于GPT-4-Turbo和GPT-4o。

至此的微调解决了性能问题,但不难看出此时的Llama3速度依然很慢,每秒只能输出不到300个字符(注意是字符,不是词也不是token)

而让改写工作快到飞起的,还有另一项秘密武器。

针对代码改写任务,Cursor团队专门引入了一种名为预测性编辑(speculative edits)的算法。

这种方式用一种先验算法来对多个后续token进行预测,然后再用本体大模型进行验证,降低了大模型的调用次数,从而减轻了运算量。

这种先验算法来自于代码任务的一个特点——相比于其他文本,其词表更小,且语法结构、缩进规则等拥有更高的确定性,利用先验知识可以更精准预测未来的token。

这样的做法也与GPT-4和Meta有着共通之处——

传统的语言模型推理推理速度较慢的原因,主要是预测下一个token的过程通常是自回归的,即模型在生成每个token时,都要考虑之前生成的所有token。

为了降低运算量,以GPT-4为代表的大模型,使用了名为预测解码(speculative decoding)的加速算法,通过小的近似模型提前进行预测,然后再让本体大模型对预测结果进行验证。

Cursor和GPT-4的区别就在于,前者的小“模型”是一种更确定的算法,而后者只是模型规模减小,本质上仍是概率预测。

Meta这边则是推出了一次性预测多个后续token的算法,用n个独立的输出头并行预测n个未来token,结果发现在编程任务上表现尤其优异,原因是由于编程语言的逻辑结构更严谨,知识的内在联系更紧密。

当然,Cursor对这种特点利用更为充分,没有用注意力头,而是直接拿更确定的算法来做多token预测。

最终的结果就是,预测算法为70B的Llama3带来了近13倍的速度提升,而测评表现没有任何损失。

此外,作者还与企业AI模型基础设施平台fireworks.ai合作,利用其优化的推理引擎和定制化的硬件环境,进一步提高了模型的运行效率。

未来,团队还计划进行知识蒸馏,并把预测编辑算法迁移到更小的8B Llama3,并扩展到更多的编程语言和任务。

同时,对于Cursor团队研究过但并未采用的真·局部修改(Diff)算法,作者也计划进行改进。

One More Thing

在实验当中,作者不仅用预测算法加速了Llama3,也实现了对GPT4-Turbo的加速。

不过作者并没有介绍具体在GPT当中如何实现,而是留做了思考题,还搞了一场“有奖竞猜”。

能够正确解答的人将获得1个月的Cursor会员;如果能在vllm和TensorRT-LLM中实现预测加速,将分别获得半年和一年的会员。

如果你感觉有思路的话,不妨挑战试试(手动狗头)。

参考链接:
https://cursor.sh/blog/instant-apply#user-content-fnref-feel-difference

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
中篇小说 枫叶红透 第一节Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTAOpenAI 官宣旗舰模型 GPT-4o,完全免费、无障碍与人交谈!奥特曼:这是我们最好的模型速度秒掉GPT-4o、22B击败Llama 3 70B,Mistral AI开放首个代码模型王羲之道德经唐拓本八,画饼充刀微软&清华提出全新预训练范式,指令预训练让8B模型实力暴涨!实力碾压70B模型ChatGPT 之父最新专访:发现 GPT-4o 惊喜用途,下一代模型可能不是 GPT-5一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo神秘模型gpt2-chatbot实力被赞超越GPT-4:sam亲自确认,或是OpenAI全新模型OpenAI爆炸更新:GPT-4免费了!新模型GPT-4o发布,视觉、语音能力大幅增强,速度起飞,API打骨折340B险胜70B,Kimi机器人贴脸“嘲讽”英伟达新开源模型苹果智能背后模型公布:3B模型优于Gemma-7B,服务器模型媲美GPT-3.5-TurboGPT-4o团队引发OpenAI组织创新热议!应届生领衔Sora,本科生带队GPT-1,经验职级都是浮云惊掉下巴:GPT-4o现场爆改代码看图导航!OpenAI曝光LLM路线图,GPT Next年底发【求职战报】全球金融交易平台Deutsche Börse Systems销售运营面试邀约!大模型新王诞生!Claude 3首次超越GPT4OpenAI掌门人最新专访:GPT-4o让我爱不释手 下代大模型可能不叫GPT-5首个多模态视频竞技场Video-MME来了!Gemini全面超越GPT-4o,Jeff Dean连转三次[干货] person 的复数是 people 还是 persons?今日arXiv最热NLP大模型论文:超越GPT-4,清华发布网页导航智能体AutoWebGLMOpenAI一夜干翻语音助手!GPT-4o模型强到恐怖,ChatGPT学会看屏幕,现实版Her来了多模态模型学会打扑克:表现超越GPT-4v,全新强化学习框架是关键俄罗斯总统“竞选”‘普京高票当选的秘密之一(投票站实况)多领域文献阅读超越GPT-4!深势科技发布科学文献多模态大模型Uni-SMART技术报告陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替GPT-4o手写板书以假乱真惊呆网友!杀死谷歌翻译,代码建模无所不能开源多模态SOTA再易主,19B模型比肩GPT-4v,16G显存就能跑30B!每秒100tokens!这是AMD对AI PC的“幻想时间”闭源赶超GPT-4 Turbo、开源击败Llama-3-70B,歪果仁:这中国大模型真香面壁智能发布最强端侧多模态模型:超越Gemini Pro 、GPT-4V,图像编码快150倍!大神Karpathy强推,分词领域必读:自动钓鱼让大模型“发疯”的token,来自Transformer作者创业公司成立半年就敢踢馆 OpenAI ,首个开源模型不输 GPT-4o,LeCun 、PyTorch 之父齐声叫好!风景入目新,枯荣季相循OpenAI 首席科学家官宣离职/腾讯一季度净利润超500亿/Google 回击 GPT-4o,连发多款新品
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。