Redian新闻
>
7nm制程,比GPU效率高,Meta发布第一代AI推理加速器

7nm制程,比GPU效率高,Meta发布第一代AI推理加速器

公众号新闻
机器之心报道

机器之心编辑部

近日,Meta 透露了其在人工智能方面取得的最新进展。


人们提起 Meta 时,通常会想到其应用程序,包括 Facebook、Instagram、WhatsApp 或即将推出的元宇宙。但许多人不知道的是这家公司设计和构建了非常复杂的数据中心来运营这些服务。


与 AWS、GCP 或 Azure 等云服务提供商不同,Meta 不需要披露有关其硅芯选择、基础设施或数据中心设计的细节,除了其 OCP 设计用来给买家留下深刻印象。Meta 的用户希望获得更好、更一致的体验,而不关心它是如何实现的。


在 Meta,AI 工作负载无处不在,它们构成了广泛用例的基础,包括内容理解、信息流、生成式 AI 和广告排名。这些工作负载在 PyTorch 上运行,具有一流的 Python 集成、即时模式(eager-mode)开发和 API 简洁性。特别是深度学习推荐模型(DLRMs),对于改善 Meta 的服务和应用体验非常重要。但随着这些模型的大小和复杂性的增加,底层的硬件系统需要在保持高效的同时提供指数级增长的内存和计算能力。


Meta 发现,对于目前规模的 AI 运算和特定的工作负载,GPU 的效率不高,并不是最佳选择。因此,该公司提出了推理加速器 MTIA,帮助更快地训练 AI 系统。


MTIA V1


MTIA v1(推理)芯片(die)


2020 年,Meta 为其内部工作负载设计了第一代 MTIA ASIC 推理加速器。该推理加速器是其全栈解决方案的一部分,整个解决方案包括芯片、PyTorch 和推荐模型。


MTIA 加速器采用 TSMC 7nm 工艺制造,运行频率为 800 MHz,在 INT8 精度下提供 102.4 TOPS,在 FP16 精度下提供 51.2 TFLOPS。它的热设计功耗 (TDP) 为 25 W。


MTIA 加速器由处理元件 (PE)、片上和片外存储器资源以及互连组成。该加速器配备了运行系统固件的专用控制子系统。固件管理可用的计算和内存资源,通过专用主机接口与主机通信,协调加速器上的 job 执行。


内存子系统使用 LPDDR5 作为片外 DRAM 资源,可扩展至 128 GB。该芯片还有 128 MB 的片上 SRAM,由所有 PE 共享,为频繁访问的数据和指令提供更高的带宽和更低的延迟。


MTIA 加速器网格包含以 8x8 配置组织的 64 个 PE,这些 PE 相互连接,并通过网状网络连接到内存块。整个网格可以作为一个整体来运行一个 job,也可以分成多个可以运行独立 job 的子网格。


每个 PE 配备两个处理器内核(其中一个配备矢量扩展)和一些固定功能单元,这些单元经过优化以执行关键操作,例如矩阵乘法、累加、数据移动和非线性函数计算。处理器内核基于 RISC-V 开放指令集架构 (ISA),并经过大量定制以执行必要的计算和控制任务。


每个 PE 还具有 128 KB 的本地 SRAM 内存,用于快速存储和操作数据。该架构最大限度地提高了并行性和数据重用性,这是高效运行工作负载的基础。

该芯片同时提供线程和数据级并行性(TLP 和 DLP),利用指令级并行性 (ILP),并通过允许同时处理大量内存请求来实现大量的内存级并行性 (MLP)。



MTIA v1 系统设计


MTIA 加速器安装在小型双 M.2 板上,可以更轻松地集成到服务器中。这些板使用 PCIe Gen4 x8 链接连接到服务器上的主机 CPU,功耗低至 35 W。


带有 MTIA 的样品测试板


托管这些加速器的服务器使用来自开放计算项目的 Yosemite V3 服务器规范。每台服务器包含 12 个加速器,这些加速器连接到主机 CPU,并使用 PCIe 交换机层级相互连接。因此,不同加速器之间的通信不需要涉及主机 CPU。此拓扑允许将工作负载分布在多个加速器上并并行运行。加速器的数量和服务器配置参数经过精心选择,以最适合执行当前和未来的工作负载。


MTIA 软件栈


MTIA 软件(SW)栈旨在提供给开发者更好的开发效率和高性能体验。它与 PyTorch 完全集成,给用户提供了一种熟悉的开发体验。使用基于 MTIA 的 PyTorch 与使用 CPU 或 GPU 的 PyTorch 一样简单。并且,得益于蓬勃发展的 PyTorch 开发者生态系统和工具,现在 MTIA SW 栈可以使用 PyTorch FX IR 执行模型级转换和优化,并使用 LLVM IR 进行低级优化,同时还支持 MTIA 加速器自定义架构和 ISA。


下图为 MTIA 软件栈框架图:



作为 SW 栈的一部分,Meta 还为性能关键型 ML 内核开发了一个手动调整和高度优化的内核库,例如完全连接和嵌入包运算符。在 SW 栈的更高层级可以选择在编译和代码生成过程中实例化和使用这些高度优化的内核。


此外,MTIA SW 栈随着与 PyTorch 2.0 的集成而不断发展,PyTorch 2.0 更快、更 Python 化,但一如既往地动态。这将启用新功能,例如 TorchDynamo 和 TorchInductor。Meta 还在扩展 Triton DSL 以支持 MTIA 加速器,并使用 MLIR 进行内部表示和高级优化。


MTIA 性能


Meta 比较了 MTIA 与其他加速器的性能,结果如下:


Meta 使用五种不同的 DLRMs(复杂度从低到高)来评估 MTIA


此外,Meta 还将 MTIA 与 NNPI 以及 GPU 进行了比较,结果如下:


评估发现,与 NNPI 和 GPU 相比,MTIA 能够更高效地处理低复杂度(LC1 和 LC2)和中等复杂度(MC1 和 MC2)的模型。此外,Meta 尚未针对高复杂度(HC)模型进行 MTIA 的优化。


参考链接:https://ai.facebook.com/blog/meta-training-inference-accelerator-AI-MTIA/



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
梅花低调香更远高通骁龙8295公布!5nm制程工艺,可以支持11块屏幕7nm舱泊一体SoC的新玩家Meta为什么要发布开源Llama 2大模型;2027上市,Meta AR眼镜放弃MicroLED技术对话华翊量子:发布第一代离子阱量子计算机,性能世界领先 | 高榕未来腾讯旗下音频平台企鹅FM将停止运营;美团发布第四代无人机;Meta正式推出Twitter替代品Threads……7nm+跨域计算+极致性价比,这家芯片厂商助攻车企「降本增效」谷歌发布技术报告:PaLM-2 推理超越 GPT-4,训练文本是第一代近 5 倍Meta造芯!正式入场大模型军备竞赛:推出首个AI加速器MTIA资本加速 | 黑马城市加速器5月产业资本对接会正在报名巨头ChatGPT大战陷败局,竟因嫌GPU太贵!Meta用CPU跑AI,点错科技树OpenAI遭集体诉讼;美团20.65亿元收购光年之外;谷歌AI模型将结合AlphaGo,比GPT-4更强|AIGC周观察第八期一张罕见的结婚照成熟制程,开始变相降价了几度相遇,终究有缘无份苹果下一代UWB芯片,将采用7nm工艺大幅优化推理过程,字节高性能Transformer推理库获IPDPS 2023最佳论文奖Arm新一代架构发布:CPU能效提升40%,GPU性能提升15%7nm座舱芯片一鸣惊人,芯擎全面布局汽车芯片12秒内AI在手机上完成作画!谷歌提出扩散模型推理加速新方法大模型的好伙伴,浅析推理加速引擎FasterTransformer恭喜客人成功办理加拿大签证!中国护照在美持绿卡或F/H/J/M等签证怎么办理加拿大签证?GPT-4拿下最难数学推理数据集新SOTA,新型Prompting让大模型推理能力狂升联发科发布天玑9200+旗舰芯片,台积电二代4nm制程打造,iQOO Neo全球首发LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理IBM 入局:开源自对齐方法训练「单峰骆驼」,比GPT4更值得信赖Meta连甩AI加速大招!首推AI推理芯片,AI超算专供大模型训练贼喊捉贼式的新疆指控,让人出离愤怒要想娃以后学习效率高,这4个小游戏现在就玩起来!冷却的不止季节(41)— 丧葬费7nm制程,黑芝麻智能发布武当系列首款芯片,让单SoC「小材大用」7nm DNA「针管」可将药物分子直接注入细胞,来自约翰霍普金斯大学团队直播预告:基于AIACC加速器快速实现Stable-Diffusion AI绘画|阿里云加速AIGC技术公开课推理效率比ControlNet高20+倍!谷歌发布MediaPipe Diffusion插件,「移动端」可用的图像生成控制模型0门槛克隆ChatGPT!30分钟训完,60亿参数性能堪比GPT-3.5
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。