Redian新闻
>
H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型

H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型

公众号新闻



  新智元报道  

编辑:桃子 润
【新智元导读】H100让模型推理性能最高跃升8倍!英伟达最新开源软件TensorRT-LLM,将彻底改变LLM推理现状。

「GPU贫民」即将告别困境!

刚刚,英伟达发布了一款开源软件TensorRT-LLM,能够加速H100上大型语言模型的推理。

那么,具体能提升多少倍?

在添加了TensorRT-LLM及其一系列优化功能后(包括In-Flight批处理),模型总吞吐量提升8倍。

使用和不使用TensorRT-LLM的GPT-J-6B A100与H100的比较

另外,就拿Llama 2来说,相较于单独使用A100,TensorRT-LLM可以将推理性能提高4.6倍。

使用和不使用TensorRT-LLM的Llama 2 70B、A100与H100的比较

网友表示,超强H100,再结合上TensorRT-LLM,无疑将彻底改变大型语言模型推理现状!

TensorRT-LLM:大模型推理加速神器


当前,由于大模型有着巨大的参数规模,使得「部署和推理」难度和成本一直居高不下。

而英伟达开发的TensorRT-LLM,旨在通过GPU来显著提高LLM吞吐量,并降低成本。

具体来说,TensorRT-LLM将TensorRT的深度学习编译器、FasterTransformer的优化内核、预处理和后处理以及多 GPU/多节点通信,封装在一个简单的开源Python API中。

英伟达对FasterTransformer进行了进一步的增强,使其成为一个产品化的解决方案。

可见,TensorRT-LLM提供了一个易用、开源和模块化的Python应用编程接口。

码农们不需要深入的C++或CUDA专业知识,能够部署、运行、调试各种大语言模型,还能获得顶尖性能表现,以及快速定制化的功能。

根据英伟达官方博客,TensorRT-LLM通过四种方式优化了Nvidia GPU上的LLM推理性能。

首先,为当前10+大模型,引入TensorRT-LLM,让开发者们能够立即运行。

其次,TensorRT-LLM作为一个开源软件库,允许LLM在多个GPU和多个GPU服务器上同时进行推理。

这些服务器分别通过,英伟达的NVLink和InfiniBand互连连接。

第三,就是「In-flight批处理」,这是一种全新的调度技术,允许不同模型任务独立于其他任务进入GPU和退出GPU。

最后,TensorRT-LLM经过优化,可以利用H100 Transformer Engine来降低模型推理时的内存占用和延迟。

接下来,具体看看TensorRT-LLM如何提升模型性能。

支持丰富LLM生态


TensorRT-LLM对开源模型生态提供了非常好的支持。

规模最大、最先进的语言模型,例如Meta推出的Llama 2-70B,需要多个GPU协同工作才能实时提供响应。

此前,如果要实现LLM推理的最佳性能,开发人员必须重写AI模型,并将其手动拆分为多个片段,并在GPU之间协调执行。

TensorRT-LLM使用张量并行技术(tensor parallelism),将权重矩阵分配到各个设备上,从而简化了这一过程,可以实现大规模高效推理。

每个模型可以在通过NVLink连接的多个GPU和多个服务器上并行运行,无需开发人员干预或模型更改。

随着新模型和模型架构的推出,开发人员可以使用TensorRT-LLM中开源的最新NVIDIA AI内核(Kernal)来优化模型。

支持的内核融合(Kernal Fusion),包括最前沿的FlashAttention实现和用于GPT模型执行的上下文和生成阶段的掩码多头注意力等。

此外,TensorRT-LLM还包括了目前流行的许多大语言模型的完全优化、可立即运行的版本。

其中包括Meta Llama 2、OpenAI GPT-2和GPT-3、Falcon、Mosaic MPT、BLOOM等10多个模型,所有这些模型都可以使用简单易用的TensorRT-LLM Python API来调用。 

这些功能可帮助开发人员更快、更准确地搭建定制化的大语言模型,以满足各行各业的不同需求。

In-flight批处理


现如今大型语言模型的用途极其广泛。

一个模型可以同时用于多种看起来完全不同的任务——从聊天机器人中的简单问答响应,到文档摘要或长代码块的生成,工作负载是高度动态的,输出大小需要满足不同数量级任务的需求。

任务的多样性可能会导致难以有效地批处理请求和进行高效并行执行,可能会导致某些请求比其他请求更早完成。

为了管理这些动态负载,TensorRT-LLM包含一种称为「In-flight批处理」的优化调度技术。

它的核心原理是,大语言模型的整个文本生成过程可以分解为模型上的多次执行迭代。

通过in flight批处理,TensorRT-LLM运行时会立即从批处理中释放出已完成的序列,而不是等待整个批处理完成后再继续处理下一组请求。

在执行新请求时,上一批还未完成的其他请求仍在处理中。

In-flight批处理和额外的内核级优化可提高GPU使用率,可以使得H100上的LLM实际请求基准的吞吐量至少增加一倍。

使用FP 8的 H100 Transformer引擎


TensorRT-LLM还提供了一个名为H100 Transformer Engine的功能,能有效降低大模型推理时的内存消耗和延迟。

因为LLM包含数十亿个模型权重和激活函数,通常用FP16或BF16值进行训练和表示,每个值占用16位内存。

然而,在推理时,大多数模型可以使用量化(Quantization)技术以较低精度有效表示,例如8位甚至4位整数(INT8或 INT4)。 

量化(Quantization)是在不牺牲准确性的情况下降低模型权重和激活精度的过程。使用较低的精度意味着每个参数较小,并且模型在GPU内存中占用的空间较小。

这使得能够使用相同的硬件对更大的模型进行推理,同时在执行过程中花费更少的时间在内存操作上。 

通过H100 Transformer Engine技术,配合TensorRT-LLM的H100 GPU使户能够轻松地将模型权重转换为新的FP8格式,并能自动编译模型以利用优化后的FP8内核。

而且这个过程不需要任何的代码!H100引入的FP8数据格式使开发人员能够量化他们的模型并从大幅度减少内存消耗,而且不会降低模型的准确性。

与INT8或INT4等其他数据格式相比,FP8量化保留了更高的精度,同时实现了最快的性能并,而且实现起来最为方便。

如何获取TensorRT-LLM


TensorRT-LLM虽然还没有正式发布,但是用户现在已经可以进行抢先体验了。

申请链接如下:

https://developer.nvidia.com/tensorrt-llm-early-access/join

英伟达也说会将TensorRT-LLM很快集成到NVIDIA NeMo框架中。

这个框架是英伟达前不久刚刚推出的AI Enterprise的一部分,为企业客户提供了一个安全、稳定、可管理性极强的企业级AI软件平台。

开发人员和研究人员可以通过英伟达NGC上的NeMo框架或GitHub上的项目访问TensorRT-LLM。

但是需要注意的是,用户必须注册英伟达开发者计划才能申请抢先体验版本。

网友热议


Reddit上的网友对TensorRT-LLM的推出展开了激烈的讨论。

难以想象专门针对LLM对硬件做出优化之后,效果将会有多大的提升。

但也有网友认为,这个东西的意义就是帮助老黄卖更多的H100。

不过有网友也不是很认同,他觉得Tensor RT对于本地部署SD的用户也是有帮助的,所以只要有RTX GPU,以后应该都有可能在类似产品上获益。

而从更加宏观的角度,也许对于LLM来说,也会出现一系列的专门针对硬件级别的优化,甚至未来会出现专门针对LLM设计的硬件来提升LLM的性能,这种情况其实已经在很多流行的应用中出现过了,LLM也不会例外。



参考资料:

https://developer.nvidia.com/blog/nvidia-tensorrt-llm-supercharges-large-language-model-inference-on-nvidia-h100-gpus/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
智源扔出大模型“全家桶”!推最强开源中英双语LLM,赶超Llama 2BELLE-7B-1M逻辑推理超预期?10B量级开源中文对话LLM,谁最「懂」逻辑推理?微软开源TypeChat库,给大语言模型换种提示,一行代码安装闽江风景,人间仙境《窗子打开了》&《晚霞》ASOS/Urban Outfitter学生9折!Jellycat8折!Burberry7折!Dr.Martens马丁靴精选7折国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B跨平台大势所趋:Google Play帮手游引流至PC版,支持120个国家推理飙升2倍!普林斯顿北大校友祭出多头「美杜莎」,33B模型与13B一样快老黄赢麻了!英伟达H100订单排到24年,马斯克都坐不住了GPT-4,Llama2,ChatGLM2,PaLM2共聚一堂 | LLM Day @KDD 2023PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍单张A100,50亿步训练!英伟达开源最强虚拟角色定制模型,超逼真动作零样本生成,游戏动画行业要变天苹果文生图大模型亮相:俄罗斯套娃式扩散,支持1024x1024分辨率北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型至少8篇顶会!英伟达LLM研究科学家岗位门槛狂卷,震惊前谷歌大脑科学家云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理英伟达生成式AI超级芯片GH200,两倍H100算力,黄仁勋:它会疯狂推理GPT-5出世,需5万张H100!全球H100总需求43万张, 英伟达GPU陷短缺风暴UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大一加 12 配置曝光:5400mAh电池,支持100W有线+50W无线充电BELLE-7B-1M逆袭ChatGLM?10B量级开源中文对话LLM,谁成常识问答任务的黑马?老黄给H100“打鸡血”:英伟达推出大模型加速包,Llama2推理速度翻倍碾压H100!英伟达GH200超级芯片首秀MLPerf v3.1,性能跃升17%中央银行都怕资产被没收,草民们咋玩呢?英伟达H100将在2024年之前售罄!推理GPU根本不够用,AI初创公司急了5112 血壮山河之武汉会战 浴血田家镇 20全球哄抢H100!英伟达成GPU霸主,首席科学家揭秘成功四要素老黄赢麻了!英伟达H100订单排到24年,马斯克都坐不住了。。。Transformer后继有模!MSRA提出全新大模型基础架构:推理速度8倍提升,内存占用减少70%兄弟二人 分道扬镳年度最绝融资:拿英伟达H100抵押贷款165亿,买更多英伟达GPU扩建10个数据中心德州电费飙升8倍, 连续7天100度+,空调都快要开不起了!400万token,大模型推理飙升22倍!清华校友爆火一作,GitHub狂揽1.8k星
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。