Redian新闻
>
Meta连甩AI加速大招!首推AI推理芯片,AI超算专供大模型训练

Meta连甩AI加速大招!首推AI推理芯片,AI超算专供大模型训练

科技

大模型技术应用,倒逼大厂加速布局基础设施。
编译 |  李水青
编辑 |  心缘
智东西5月19日消息,当地时间5月18日,Meta在官网发布公告,为了应对未来十年AI算力需求急剧增长,Meta正执行一项宏伟计划——专为AI建设下一代基础设施。
Meta公布了其为AI构建下一代基础设施的最新进展,包括首款用于运行AI模型的定制芯片、一个全新的AI优化数据中心设计、首款视频转码ASIC,以及集成16000块GPU、用于加速AI训练的AI超级计算机RSC等。

▲Meta官网关于AI基础设施细节的披露

Meta将AI视为公司的核心基础设施。自从2010年Meta的第一个数据中心破土动工至今,AI已成为每天使用Meta系列应用程序的30多亿人的引擎。从2015年的Big Sur硬件到PyTorch的开发,再到去年Meta的AI超算的初步部署,Meta当下正将这些基础设施进一步升级进化。

01.
Meta首代AI推理加速器
7nm制程、102.4TOPS算力


MTIA(Meta Training and Inference Accelerator),是Meta第一个针对推理工作负载的内部定制加速器芯片系列。
AI工作负载在Meta的业务中中无处不在,这是广泛应用项目的基础,包括内容理解、信息流、生成式AI和广告排名等。随着AI模型的大小和复杂性的增加,底层硬件系统需要在保持效率的同时提供指数级增长的内存和计算。但Meta发现CPU难以满足其规模所需的效率水平需求,于是针对这一挑战设计了Meta自研训练和推理加速器MTIA ASIC系列。
自2020年起,Meta为其内部工作负载设计了第一代MTIA ASIC。该加速器采用台积电7nm工艺,运行频率为800MHz,在INT8精度下提供102.4TOPS算力,在FP16精度下提供51.2TFLOPS算力。它的热设计功率(TDP)为25W。
据介绍,MTIA提供了比CPU更高的计算能力和效率,通过同时部署MTIA芯片和GPU,其将为每个工作负载提供更好的性能、更低的延迟和更高的效率。

02.
布局下一代数据中心
开发首款视频转码ASIC


Meta的下一代数据中心设计将支持其当前的产品,同时支持未来几代AI硬件的训练和推理。这个新的数据中心将是面向AI优化设计,支持液冷AI硬件和连接数千个AI芯片的高性能AI网络,用于数据中心规模的AI训练集群。
据官网解读,Meta下一代数据中心还将更快、更经济地构建,并将补充其他新硬件,例如Meta的第一个内部开发的ASIC解决方案MSVP,旨在为Meta不断增长的视频工作负载提供动力。
随着生成式AI等新技术内容产生,人们对视频基础设施的需求进一步加剧,这推动Meta推出了一款可扩展视频处理器MSVP。
MSVP是Meta为内部开发的第一个用于视频转码的ASIC。MSVP是可编程和可扩展的,并且可以配置为有效地支持点播所需的高质量转码,以及直播所需的低延迟和更快的处理时间。未来,MSVP还将帮助为Meta应用系列的每个成员带来新形式的视频内容——包括AI生成的内容以及VR(虚拟现实)和AR(增强现实)内容。

▲MSVP的架构示意图


03.
AI超算集成16000个GPU
支持LLaMA大模型加速训练迭代


据Meta公告,其AI超级计算机(RSC)是世界上最快的人工智能超级计算机之一,旨在训练下一代大型AI模型,为新的AR工具、内容理解系统、实时翻译技术等提供动力。
Meta RSC具有16000个GPU,所有GPU都可以通过三级Clos网络结构访问,为2000个训练系统中的每个系统提供全带宽。在过去的一年里,RSC一直在推动像LLaMA这样的研究项目。
LLaMA是Meta在今年早些时候构建并开源的大型语言模型,具有650亿参数规模。Meta称其目标是提供一个更小、更高性能的模型,研究人员可以在不需要重要硬件的情况下对特定任务进行研究和微调。
Meta基于1.4万亿Tokens训练了LLaMA 65B和较小的LLaMA 33B。其最小的模型,LLaMA 7B,训练也用到了一万亿Tokens。大规模运行的能力允许Meta加速训练和调优迭代,比其他企业更快地发布模型。

04.
结语:大模型技术应用
倒逼大厂加速布局基础设施


Meta之所以自定义设计其大部分基础设施,主要是因为这能使其优化端到端的体验,包括从物理层到软件层再到实际的用户体验。因为从上到下控制堆栈,所以其可以根据自己的特定需求对其进行定制。这些基础设施将支持Meta开发和部署更大规模、更复杂的AI大模型。
在未来几年里,我们将看到芯片设计、专用和特定工作负载的AI基础设施、新系统和工具的专业化、定制化程度的提高,以及产品和设计支持效率的提高。这些都将提供建立在最新研究基础上的日益复杂的模型和产品,使世界各地的人们能够使用这种新兴技术。
来源:Meta官网

(本文系网易新闻•网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
英伟达史诗级暴涨后再放大招!推E级AI超算,黄仁勋狂捧生成式AI字节参战!火山引擎推出大模型训练云平台,自研DPU实例性能提升3倍面向大模型训练,腾讯发布高性能计算集群:整体性能提升3倍百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报类GPT模型训练提速26.5%,清华朱军等人用INT4算法加速神经网络训练(古詩詞英譯) 梅花 - 王安石〔宋代〕LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理"AI框架"与"AI中台"在大模型训练实践中如何发挥作用?| Q推荐国民警卫队会保卫特朗普吗?减少内存消耗、降低大模型训练成本,ACL杰出论文作者揭秘CAME优化器智源连甩多个开源王炸!悟道3.0大模型数弹齐发,大模型评测体系上线《祖国》&《可能》对话面壁智能:和知乎的优势互补,会加速大模型的研发英伟达H100霸榜权威AI性能测试,11分钟搞定基于GPT-3的大模型训练阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl大模型的好伙伴,浅析推理加速引擎FasterTransformer只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型大模型训练太难了!ICLR 2023 | 微软提出自动化模型训练剪枝框架OTO,一站式获得轻量级架构机器学习与因子模型实证:怎么进行模型训练?防止AI胡说八道!OpenAI公布最新大模型训练方法,监督AI像人类一样思考5030 血壮山河之武汉会战 九江战役 5微软开源“傻瓜式”类ChatGPT模型训练工具,提速省钱15倍有哪些省内存的大语言模型训练/微调/推理方法?GPT-4拿下最难数学推理数据集新SOTA,新型Prompting让大模型推理能力狂升DeepSpeed ZeRO++:降低4倍网络通信,显著提高大模型及类ChatGPT模型训练效率人类最终将毁于AI国内高校首例!支持千亿参数的大模型训练CVPR 2023 | 可扩展的视频基础模型预训练范式:训练出首个十亿参数量视频自监督大模型小扎豪赌大模型!Meta重磅推出定制芯片MTIA v1和全新超算知乎CTO李大海兼任面壁智能CEO 加速大模型研发进程AI推理芯片,比你想象难!从狂热到理性:大模型训练三堵墙,一场少数人的游戏人类首个“反AI联盟”四问AI风险 暂停大模型训练遭遇不同意见大模型训练成本降低近一半!新加坡国立大学最新优化器已投入使用
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。