Redian新闻
>
吞吐量提升5倍,联合设计后端系统和前端语言的LLM接口来了

吞吐量提升5倍,联合设计后端系统和前端语言的LLM接口来了

公众号新闻
机器之心报道
机器之心编辑部

大型语言模型 (LLM) 越来越多地用于需要多个链式生成调用、高级 prompt 技术、控制流以及与外部环境交互的复杂任务。然而,用于编程和执行这些应用程序的现有高效系统存在着明显的缺陷。


现在,开源社区的研究者们面向 LLM 提出了一种结构化生成语言(Structured Generation Language)——SGLang。SGLang 能够增强与 LLM 的交互,通过联合设计后端运行时系统和前端语言,使 LLM 更快、更可控。机器学习领域知名学者、CMU 助理教授陈天奇还转发了这项研究。



总的来说,SGLang 的贡献主要包括:


  • 在后端,研究团队提出了 RadixAttention,这是一种跨多个 LLM 生成调用的 KV 缓存(KV cache)复用技术,自动且高效。

  • 在前端,研究团队开发了一种嵌入 Python 的、灵活的域指定(domain-specific)语言来控制生成过程。该语言可以在解释器模式或编译器模式下执行。


后端前端组件协同工作,可提高复杂 LLM 程序的执行和编程效率。


该研究使用 SGLang 实现了常见的 LLM 工作负载,包括智能体、推理、提取、对话和小样本学习任务,并在 NVIDIA A10G GPU 上采用 Llama-7B 和 Mixtral-8x7B 模型。如下图 1 、图 2 表明,与现有系统(即 Guidance 和 vLLM)相比,SGLang 的吞吐量提高了 5 倍。


图 1:不同系统在 LLM 任务上的吞吐量(A10G、FP16 上的 Llama-7B、张量并行度 = 1)


图 2:不同系统在 LLM 任务上的吞吐量(A10G、FP16 上的 Mixtral-8x7B,张量并行度 = 8)


后端:使用 RadixAttention 自动 KV 缓存复用


在 SGLang 运行时的开发过程中,该研究发现了复杂 LLM 程序的优化关键 ——KV 缓存复用,当前系统对此处理不佳。KV 缓存复用意味着具有相同前缀的不同 prompt 可以共享中间 KV 缓存,避免冗余的内存和计算。在涉及多个 LLM 调用的复杂程序中,可能存在各种 KV 缓存复用模式。下图 3 说明了 LLM 工作负载中常见的四种此类模式。虽然某些系统能够在某些场景下处理 KV 缓存复用,但通常需要手动配置和临时调整。此外,由于可能的复用模式的多样性,即使通过手动配置,现有系统也无法自动适应所有场景。


图 3:KV 缓存共享示例。蓝色框是可共享的 prompt 部分,绿色框是不可共享的部分,黄色框是不可共享的模型输出。可共享的部分包括小样本学习示例、自洽(self-consistency)问题、多轮对话中的对话历史以及思维树(tree-of-thought)中的搜索历史。


为了系统地利用这些复用机会,该研究提出了一种在运行时自动 KV 缓存复用的新方法 —— RadixAttention。该方法不是在完成生成请求后丢弃 KV 缓存,而是在基数树(radix tree)中保留 prompt 和生成结果的 KV 缓存。这种数据结构可以实现高效的前缀搜索、插入和驱逐。该研究实现了最近最少使用(LRU)驱逐策略,并辅以缓存感知调度策略,以提高缓存命中率。


基数树可作为 trie(前缀树)节省空间的替代方案。与典型的树不同,基数树的边缘不仅可以用单个元素来标记,还可以用不同长度的元素序列来标记,这提高了基数树的效率。


该研究利用基数树来管理映射,这种映射是在充当键的 token 序列和充当值的相应 KV 缓存张量之间进行的。这些 KV 缓存张量以分页布局存储在 GPU 上,其中每个页的大小相当于一个 token。


考虑到 GPU 内存容量有限,无法重新训练无限的 KV 缓存张量,这就需要驱逐策略。该研究采用 LRU 驱逐策略,递归地驱逐叶节点。此外,RadixAttention 与连续批处理和分页注意力等现有技术兼容。对于多模态模型,RadixAttention 可以轻松扩展以处理图像 token。


下图说明了在处理多个传入请求时如何维护基数树。前端总是向运行时发送完整的 prompt,运行时会自动进行前缀匹配、复用和缓存。树形结构存储在 CPU 上,维护开销较小。


图 4. 采用 LRU 驱逐策略的 RadixAttention 操作示例,分九个步骤进行说明。


图 4 演示了基数树响应各种请求的动态演变。这些请求包括两个聊天会话、一批小样本学习查询和自洽性抽样。每个树边缘都带有一个标签,表示子字符串或 token 序列。节点采用颜色编码以反映不同的状态:绿色表示新添加的节点,蓝色表示在该时间点访问的缓存节点,红色表示已被驱逐的节点。


前端:使用 SGLang 轻松进行 LLM 编程


在前端,该研究提出了 SGLang,一种嵌入在 Python 中的特定于领域的语言,允许表达高级 prompt 技术、控制流、多模态、解码约束和外部交互。SGLang 函数可以通过各种后端运行,例如 OpenAI、Anthropic、Gemini 和本地模型。


图 5. 用 SGLang 实现多维文章评分。


图 5 显示了一个具体示例。它利用分支 - 解决 - 合并 prompt 技术实现多维文章评分。该函数使用 LLM 从多个维度评估文章的质量,合并判断,生成摘要,并分配最终等级。突出显示的区域说明了 SGLang API 的使用。(1) fork 创建 prompt 的多个并行副本。(2) gen 调用 LLM 生成并将结果存储在变量中。该调用是非阻塞的,因此它允许多个生成调用在后台同时运行。(3) [variable_name] 检索生成的结果。(4) 选择对生成施加约束。(5) run 使用其参数执行 SGLang 函数。


给定这样一个 SGLang 程序,我们可以通过解释器执行它,也可以将其跟踪为数据流图并使用图执行器运行它。后一种情况为一些潜在的编译器优化开辟了空间,例如代码移动、指令选择和自动调整。


SGLang 的语法很大程度上受到 Guidance 的启发,并引入了新的原语,还处理程序内并行性和批处理。所有这些新功能都有助于 SGLang 的出色性能。


基准测试


研究团队在常见的 LLM 工作负载上测试了其系统,并报告了所实现的吞吐量。


具体来说,该研究在 1 个 NVIDIA A10G GPU (24GB) 上测试了 Llama-7B,在 8 个具有张量并行性的 NVIDIA A10G GPU 上使用 FP16 精度测试了 Mixtral-8x7B,并使用 vllm v0.2.5、指导 v0.1.8 和 Hugging Face TGI v1.3.0 作为基准系统。


如图 1 和图 2 所示,SGLang 在所有基准测试中均优于基准系统,吞吐量提高了 5 倍。它在延迟方面也表现出色,特别是对于第一个 token 延迟,其中前缀缓存命中可以带来显著的好处。这些改进归功于 RadixAttention 的自动 KV 缓存复用、解释器实现的程序内并行性以及前端和后端系统的协同设计。此外,消融研究表明,即使没有缓存命中,也没有明显的开销,这会导致在运行时始终启用 RadixAttention。


参考链接:https://lmsys.org/blog/2024-01-17-sglang/




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
GPU、CPU和DRAM接口互联技术新加坡曾经有一个结合四种语言的国际广播电台赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了吞吐量提升近30倍!田渊栋团队最新论文解决大模型部署难题飞行汽车概念?立马涨停!连夜改口来了五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈今日arXiv最热NLP大模型论文:伯克利&DeepMind联合研究,RaLMSpec让检索增强LLM速度提升2-7倍!WHat's up | 苦水吞吐派对,咖友召集首次曝光!200家App已加入鸿蒙生态,余承东表示安卓系统和鸿蒙系统即将不再兼容!华为鸿蒙设备增长至8亿,大势已定!横扫13个视觉语言任务!哈工深发布多模态大模型「九天」,性能直升5%Mistral AI:探索LLM推理的吞吐、时延及成本空间了解你的系统和数据库、两天能升级上千Java应用!生成式AI大杀器Amazon Q 才是开发专家?学界速递 | 清华原校长王希勤履新基金委; 苹果开发可在手机端运行的LLM1年6倍变3年5倍,健民集团还有后续吗?比OpenAI官方提示词指南更全,这26条黄金准则让LLM性能飙升50%以上6052 血壮山河 卢沟桥之变 21吞吐量狂涨30%:斯里兰卡汉班托塔港,新年迎来开门红脑机接口迎新突破,马斯克宣布人类首次植入脑机接口芯片|亮马桥小纪严选Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%中美言和,美一众跟班尴尬了[预约] 语言的变化正在导致西方的衰落吗?【周末综艺会10期】— 汤汤水水LangChain:打造自己的LLM应用产出精氨酸酶活性提升5.2倍,湖北大学系统性改造地衣芽孢杆菌Tat途径,扩展高价值蛋白生产前景加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让语言模型服务飞速提升2-7倍!LLM生成延迟降低50%!DeepSpeed团队发布FastGen:动态SplitFuse技术,提升2.3倍有效吞吐量2023 LLM技术报告—— LLM的工具和平台美团调整架构,科技与境外业务优先级提升 / 中国成韩国最大跨境电商进口来源地丨36氪出海·要闻回顾提示词专场:从调整提示改善与LLMs的沟通,到利用LLMs优化提示效果冷却的不止季节(124)— 任是无情也动人(完结篇)女人不坏,男人不爱红海局势紧张,斯里兰卡科伦坡港吞吐量大幅增长只改了五行代码接口吞吐量提升了 10 多倍《吉林省留守儿童和困境儿童关爱服务质量提升三年行动实施方案》黄酮类化合物滴度最高提升10倍,格罗宁根大学团队设计酶组合策略,显著提升化合物产量
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。