Redian新闻
>
AMD放大!苏妈甩出最强AI芯片叫板老黄,可跑800亿参数大模型

AMD放大!苏妈甩出最强AI芯片叫板老黄,可跑800亿参数大模型

公众号新闻



  新智元报道  

编辑:拉燕
【新智元导读】AMD公开叫板英伟达!重磅发布GPU MI300X。还将和HuggingFace进行合作,全力助推硬件竞争力。

AMD放大了!

在周二的发布会上,苏妈直接宣布了最新的一款AI芯片——GPU MI300X,直接叫板英伟达。

AMD本周二表示,将于今年晚些时候开始向部分客户发货。

要知道,Nvidia目前在AI芯片市场中牢牢占据着主导地位。

MI300X


AMD公司的CEO苏妈Lisa Su周二在旧金山发布了一款芯片——GPU MI300X。

据悉,这是该公司AI计算战略的核心。

它能为生成性AI(LLM)提供巨大的内存和数据吞吐量。

Instinct MI300X是之前发布的MI300A的后续产品。该芯片实际上是多个小芯片的组合,这些独立的芯片通过共享内存和网络链接被连接到一个单一的封装中。

苏妈将这款芯片称为生成式AI加速器,其中包含的GPU芯片是专门为AI和HPC(高性能计算)量身打造的。

MI300X是该产品的「纯GPU」版本。MI300A是三个Zen4 CPU芯片与多个GPU芯片的组合。

但在MI300X中,CPU被换成了两个额外的CDNA 3芯片组。

此外,MI300X将晶体管数量从1460亿个增加到1530亿个,共享DRAM内存从MI300A的128千兆字节提升到了192千兆字节,内存带宽从每秒800千兆字节提升到了每秒5.2兆字节。

苏妈在演讲中反复多次强调了这款芯片所具有的非常、非常重要的战略意义。

「因为它能够混合和匹配不同种类的计算,替换CPU或GPU。」

苏马表示,MI300X将提供2.4倍于Nvidia H100 Hopper GPU的内存密度,以及1.6倍的内存带宽。

生成式AI以及LLM的格局已经改变,对更多计算的需求正以指数的形式增长,无论是训练模型还是进行推理。

为了证明对强大计算的需求,苏妈展示了在目前最流行的LLM上工作的部分,即开源的Falcon-40B。

语言模型需要更多的计算,因为它们是用越来越多的所谓的神经网络参数建立的。

她表示,MI300X是AMD第一款功能强大的芯片,可以流畅地在内存中运行大规模的神经网络,而不是必须在外部内存中来回移动数据。

苏妈现场演示了MI300X使用Falcon-40B创建了一首有关旧金山的诗篇。

苏妈表示,「一个MI300X芯片可以在内存中运行高达约800亿个参数的模型。」

「当你将MI300X与竞争对手进行比较时,你就能发现,MI300X提供了2.4倍的内存,和1.6倍的内存带宽,有了所有这些额外的内存容量,我们实际上对LLM是有巨大优势的,因为我们可以直接在内存中运行更大的模型。」

这意味着,对于最大的模型,AMD减少了所需要的GPU数量,大大加快了性能,特别是推理的速度,同时也降低了总成本。

苏妈在演讲中毫不掩饰对这款芯片的喜爱。

AMD Instinct


为了与Nvidia的DGX系统竞争,苏妈发布了一个人工智能计算机系列,即AMD Instinct平台。

这个平台集成了8个MI300X,可提供1.5TB的HBM3内存。

苏妈表示,对于客户来说,他们可以在一个行业标准的平台上使用所有这些AI计算能力的内存,直接放入他们现有的设施。

与MI300X不同的是,现有的MI300A只是一个GPU,它的对手是Nvidia的Grace Hopper组合芯片,它使用Nvidia的Grace CPU和它的Hopper GPU。

Su指出,MI300A正被内置到能源部的劳伦斯-利弗莫尔国家实验室在建的El Capitan超算中。

MI300A目前正作为样品展示给AMD客户,MI300X将在今年第三季度开始向客户提供样品。

苏妈表示,两者都将在第四季度进行批量生产。

和HuggingFace合作


同时,HuggingFace也在今天宣布,AMD已经正式加入其硬件合作伙伴计划。

HuggingFace的CEO Clement Delangue在旧金山举行的AMD数据中心和人工智能技术首发式上发表了主题演讲,以启动这一令人兴奋的新合作。

AMD和Hugging Face合作,意味着将在AMD的CPU和GPU上提供SOTA级别的transformer性能。

该合作对整个Hugging Face社区来说都是个好消息,他们将很快从最新的AMD平台的训练和推理中受益。

在GPU方面,AMD和Hugging Face将首先在企业级Instinct MI2xx和MI3xx系列上合作,然后在客户级Radeon Navi3x系列上合作。

在最初的测试中,AMD最近报告,MI250训练BERT-Large的速度比其竞争对手快1.2倍,训练GPT2-Large快1.4倍。

在CPU方面,两家公司将致力于为客户端Ryzen和服务器EPYC CPU优化推理。

最后,他们的合作将包括性能强大的Alveo V70 AI加速器。

HuggingFace计划支持最先进的自然语言处理、计算机视觉和语音的转化器架构,如BERT、DistilBERT、ROBERTA、Vision Transformer、CLIP和Wav2Vec2。

当然,生成式AI模型也将可用(例如,GPT2、GPT-NeoX、T5、OPT、LLaMA),包括HuggingFace自己的BLOOM和StarCoder模型。

最后,HuggingFace还将支持更多传统的计算机视觉模型,如ResNet和ResNext,以及深度学习推荐模型,这对HuggingFace来说还是头一次。

未来,合作的重点将放在确保对HuggingFace社区最重要的模型能在AMD的平台上开箱即用。

HuggingFace将与AMD工程团队密切合作,优化关键模型,以提供最佳性能,这得益于最新的AMD硬件和软件功能。

HuggingFace将把AMD的ROCm SDK无缝集成到HuggingFace的开源库中,首先是transformer库。

参考资料:
https://www.cnbc.com/2023/06/13/amd-reveals-new-ai-chip-to-challenge-nvidias-dominance.html
https://huggingface.co/blog/huggingface-and-amd




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元又一国产大模型来了,超对称联合复旦大学发布 120 亿参数语言模型 BBT-2, 已开源苏妈战老黄!官宣AMD大模型专用卡,对标英伟达H100,可跑更大模型参数是ChaGPT的近6倍!英特尔公布AI大模型Aurora genAI,具备1万亿参数复旦新作:单机微调650亿参数大模型;蚂蚁、百度参投AI大模型创企;杭州检方对AI换脸案提起公诉丨AIGC大事日报十亿参数,一键瘦身!「模型减重」神器增强型 SmoothQuant,让大模型狂掉 3/4650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!阿里50亿参数的AI画画模型火了,可再厉害的人工智能也无法模仿孩子的画54百亿参数大模型进化树重磅更新!85页盘点LLM发展史,附最详细prompt技巧国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上GPT-4关键信息遭泄露;北京将发4000万元算力券;百川智能推130亿参数大模型丨AIGC大事日报老黄发布最强AIGC芯片!内存容量暴增近50%,可运行任意大模型,“生成式AI的iPhone时刻已来”爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯阿里等大厂豪掷50亿美元买英伟达芯片;寒武纪被爆裁员,硬件部分只保留少数员工;小米曝光64亿参数AI大模型|AI一周资讯参数是 ChatGPT 的近 6 倍!英特尔公布 AI 大模型 Aurora genAI,具备 1 万亿参数1天训完45亿参数大模型!高校计算能力首次比肩科技巨头十亿参数,一键瘦身!「模型减重」神器让大模型狂掉 3/4英伟达AI芯片劲敌来了!AMD推出MI300X,可运行多达800亿参数模型HuggingChat叫板ChatGPT!300亿参数大模型免费用,网友:真香1530亿颗晶体管!AMD甩出最强AI芯片,单个GPU跑大模型GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑性能超越Llama2-13B,可免费商用,姚星创业公司开源百亿参数通用大模型让人抓狂的马克龙和我们的退休年龄遇罗克,中华的马丁.路德. 金球友的小花园650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目告春鸟、春告鸟十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型健行安卓手机上跑15亿参数大模型,12秒不到就推理完了我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了中科院出手!1000亿参数全模态大模型发布,能看懂视频、绘画作曲、分析信号昨夜,黄仁勋甩出最强生成式AI处理器,全球首发HBM3e,比H100还快树莓派上运行 Stable Diffusion,260MB 的 RAM「hold」住 10 亿参数大模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。