Redian新闻
>
推理速度数倍提升,大幅简化多GPU后端部署:Meta发布全新推理引擎AITemplate

推理速度数倍提升,大幅简化多GPU后端部署:Meta发布全新推理引擎AITemplate

公众号新闻

机器之心报道

机器之心编辑部

刚刚,Meta 发布了革命性的推理引擎 AITemplate。测试结果显示,相比 PyTorch Eager,AITemplate 在 NVIDIA GPU 上实现了最高 12 倍的性能提升,在 AMD GPU 上实现了高达 4 倍的性能提升。


众所周知,GPU 在各种视觉、自然语言和多模态模型推理任务中都占据重要位置。然而,对于高性能 GPU 推理引擎,AI 从业者几乎没有选择权,必须使用一些平台专有的黑盒系统。这意味着如果要切换 GPU 供应商,就必须重新实现一遍部署系统。在生产环境中当涉及复杂的依赖状况时,这种灵活性的缺失使维护迭代成本变得更加高昂。


在 AI 产品落地过程中,经常需要模型快速迭代。尽管一些闭源系统(如 TensorRT)提供了一些定制化功能,但这些定制化功能完全不能满足需求。更进一步来说,这些闭源专有的解决方案,会使 debug 更加困难,对开发敏捷性造成影响。


针对这些业界难题,Meta AI 开发了拥有 NVIDIA GPU 和 AMD GPU 后端的统一推理引擎——AITemplate。



目前 AITemplate 已开源,项目地址:https://github.com/facebookincubator/AITemplate


AITemplate 在 CNN、Transformer 和 Diffusion 模型上都能提供接近硬件上限的 TensorCore (NVIDIA GPU) 和 MatrixCore (AMD GPU) 性能。使用 AITemplate 后,在 NVIDIA GPU 上对比 PyTorch Eager 的提速最高能达到 12 倍,在 AMD GPU 上对比 PyTorch Eager 的提速达到 4 倍。


这意味着,当应用于超大规模集群时,AITemplate 能够节约的成本数额将是惊人的。


具体而言,AITemplate 是一个能把 AI 模型转换成高性能 C++ GPU 模板代码的 Python 框架。该框架在设计上专注于性能和简化系统。AITemplate 系统一共分为两层:前段部分进行图优化,后端部分针对目标 GPU 生成 C++ 模板代码。AITemplate 不依赖任何额外的库或 Runtime,如 cuBLAS、cudnn、rocBLAS、MIOpen、TensorRT、MIGraphX 等。任何 AITemplate 编译的模型都是自洽的。


AITemplate 中提供了大量性能提升创新,包括更先进的 GPU Kernel fusion,和一些专门针对 Transformer 的先进优化。这些优化极大提升了 NVIDIA TensorCore 和 AMD MatrixCore 的利用率。


目前,AITemplate 支持 NVIDIA A100 和 MI-200 系列 GPU,两种 GPU 都被广泛应用在科技公司、研究实验室和云计算提供商的数据中心。


团队对 AITemplate 进行了一系列测试。下图的测试展示了 AITemplate 和 PyTorch Eager 在 NVIDIA A100 上的主流模型中的加速比。


在带有 Cuda 11.6 的 Nvidia A100 上运行 BERT 和 ResNet-50,AITemplate 在 ResNet-50 中提供了 3 到 12 倍的加速,在 BERT 上提供了 2 到 5 倍的加速。


经测试,AITemplate 在 AMD MI250 GPU 上较 PyTorch Eager 也有较大的加速比。


使用 ROCm 5.2 和 MI250 加速器,ResNet-50 和 BERT 的加速在 1.5-2 倍范围内。


AITemplate 的统一 GPU 后端支持,让深度学习开发者在最小开销的情况下,拥有了更多的硬件提供商选择。下图直观展示了 AITemplate 在 NVIDIA A100 GPU 和 AMD MI250 GPU 上的加速对比:



此外,AITemaplte 的部署较其他方案也更为简洁。由于 AI 模型被编译成了自洽的二进制文件并且不存在任何第三方库的依赖,任何被编译的二进制文件都能在相同硬件、CUDA 11/ ROCm 5 或者更新的软件环境中运行,也不用担心任何后向兼容问题。AITemplate 提供了开箱即用的模型样例,如 Vision Transformer、BERT、Stable Diffusion、ResNet 和 MaskRCNN,使得部署 PyTorch 模型更加简单。


AITemplate 的优化


AITemplate 提供了目前最先进的 GPU Kernel 融合技术:支持纵向、水平和内存融合为一体的多维融合技术。纵向融合将同一条链上的操作进行融合;水平融合将并行无依赖的操作进行融合;内存融合把所有内存移动操作和计算密集算子进行融合。



在水平融合中,AITemplate 目前可以把不同输入形状的矩阵乘法 (GEMM)、矩阵乘法和激活函数,以及 LayerNorm、LayerNorm 和激活函数进行融合。


在纵向融合中,AITemplate 支持超过传统标准的 Elementwise 融合,包括:


  • 通过 CUTLASS 和 Composable Kernel 支持了矩阵和 Elementwise 算子融合;

  • 为 Transformer 的 Multi-head Attention 提供了矩阵乘法和内存布局转置融合;

  • 通过张量访问器对内存操作,如 split、slice、concatenate 等进行融合来消除内存搬运。


在标准的 Transformer Multi head attention 模块,目前 AITemplate 在 CUDA 平台使用了 Flash Attention,在 AMD 平台上使用了 Composable Kernel 提供的通用背靠背矩阵乘法融合。两种解决方案都能大幅减小内存带宽需求,在长序列问题中,提升更为明显。如下图所示:


AITemplate 与 Composable Kernel 的广义背靠背融合显着提高了长序列 Transformer 的推理效率。在 batch size 为 1 时,使用 AITemplate 的两张 GPU 均比原生框架加速了 80%。


开发 AITemplate


AITemplate 有两层模版系统:第一层在 Python 中使用 Jinja2 模板,第二层在 GPU TensorCore/MatrixCore 中使用 C++ 模板(NVIDIA GPU 上使用 CUTLASS,AMD GPU 上使用 Composable Kernel)。AITemplate 在 Python 中找到性能最优的 GPU 模板参数,再通过 Jinja2 渲染出最终的 C++ 代码。


在代码生成后,就能使用 GPU C++ 编译器(NVIDIA 平台上的 NVCC 和 AMD 平台上的 HIPCC)编译出最终的二进制代码。AITemplate 提供了一套类似于 PyTorch 的前端,方便用户直接将模型转换到 AITemplate 而不是通过多层 IR 转换。


总体来看,AITemplate 对当前一代及下一代 NVIDIA GPU 和 AMD GPU 提供了 SOTA 性能并大幅简化了系统复杂度。


Meta 表示,这只是创建高性能多平台推理引擎旅程的开始:「我们正在积极扩展 AITemplate 的完全动态输入支持。我们也有计划推广 AITemplate 到其他平台,例如 Apple 的 M 系列 GPU,以及来自其他供应商的 CPU 等等。」


此外,AITemplate 团队也正在开发自动 PyTorch 模型转换系统,使其成为开箱即用的 PyTorch 部署方案。「AITemplate 对支持 ONNX 和 Open-XLA 也持开放态度。我们希望能构建一个更为绿色高效的 AI 推理系统,能拥有更高的性能,更强的灵活性和更多的后端选择。」团队表示。


参考链接:https://ai.facebook.com/blog/gpu-inference-engine-nvidia-amd-open-source/


声纹识别:从理论到编程实战

《声纹识别:从理论到编程实战》中文课上线,由谷歌声纹团队负责人王泉博士主讲。目前,课程答疑正在持续更新中。
课程视频内容共 12 小时,着重介绍基于深度学习的声纹识别系统,包括大量学术界与产业界的最新研究成果。
同时课程配有 32 次课后测验、10 次编程练习、10 次大作业,确保课程结束时可以亲自上手从零搭建一个完整的声纹识别系统。
点击阅读原文,了解更多课程内容。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
数学奥赛狂砍10题!Meta发布全新定理证明器:AI即将接管数学?全球首款Chiplet游戏GPU来了!5nm、高性价比、售价899美元起Chinese Province to Kill Majors With Low Employment Rates推荐一本适合进阶的英语语法书!让你的语法能力翻倍提升!人在中国,国外的房子被盗卖了+ 隔洋惊喜精选Data岗位 | Cummins、Intuitive、Tempus Labs等公司发布最新岗位!无需新型token mixer就能SOTA:MetaFormer视觉基线模型开源,刷新ImageNet记录Metasurfaces将有助于简化量子信息技术 但也可以实现复杂的应用开始使用Poplar Triton后端Highlights | 路易威登倾情呈现CAPUCINES手袋新款,香奈儿发布全新腕表......Avignon~普罗旺斯的心脏NeurIPS22|改进何恺明 MAE!GreenMIM:整合Swin与MAE,训练速度大幅提升!马斯克血洗推特后,5名高管上位!资方:Meta即将大裁8700人!精选Data岗位 | Tempus Labs, Inc., PlayStation、Uber发布最新岗位!移动端部署推荐系统:快手获数据挖掘顶会CIKM 2022最佳论文​能让天津人放下煎饼馃子的,也就那碗捞(láo)面了!从国潮到科技,安踏如何达成社交声量20倍提升?遭乌炮击!俄一地大规模停电;克里米亚大桥临近地区恐怖主义危险级别提高至“黄色”;Meta公布全新元宇宙头显;纳指跌入技术性熊市AlphaFold对手来了:Meta发布6亿“暗物质”蛋白预测结果,仅用2周完成噩梦!多伦多2岁小孩救护车送急诊!挤爆没床位就地插管!出ICU后又感染RSV毛泽东在天安门接见美黑人领袖AMD Composable Kernel: 定制化算子融合,大幅提升AI端到端性能超轻量!AI模型编译器MegCC开源,让推理引擎体积变小小小小小……不能永远 Too young Too simple Sometimes naive晚年的追悔— 王芸生和他的《大公报》重磅计划全新推出!华人圈再次沸腾,简直物超所值!国产GPU再进一步!摩尔线程推出全新多功能GPU春晓,构建元计算新引擎澳洲宣布:重大签证新规!大幅简化这些人赴澳手续!移民局加速PR审批,2023年或延长更多人签证时间...失血、裁员、股价暴跌:Meta 正在成为硅谷的泰坦尼克帮助在云端部署 AI 和 ML 应用程序的平台 | Linux 中国什么是GPU?GPU和显卡的关系?GPU国产化布局?电影赏析|Please Remember Me高性能!超轻量!AI模型编译器MegCC开源了!让推理引擎体积变小小小小小…香港的“人性化”ICinsights:MEMS传感器销售创纪录
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。