Redian新闻
>
外甥女跟老舅叫板,不服赢家通吃,AMD要拉上Hugging Face对抗英伟达了

外甥女跟老舅叫板,不服赢家通吃,AMD要拉上Hugging Face对抗英伟达了

科技
作者Neil Shen
邮箱[email protected]
在所有嫉妒英伟达大赚特赚的科技大厂里,AMD肯定是最憋屈的一个。
他们是常年相爱相杀的老对手。熟悉PC电脑市场的人都知道,一直以来英伟达RTX系列显卡的主要对手就是AMD Radeon系列显卡。
在最新的几次显卡迭代中,英伟达凭借光线追踪和DLSS(深度学习超级采样)等独家技术拉开了和AMD的差距,在消费级市场占据优势。
这种情况在数据中心领域被复制。本来,AMD的数据中心业务称得上可圈可点,欧洲速度最快的超级计算机LUMI和美国橡树岭国家实验室的Frontier超级计算机使用的都是AMD的处理器与加速器。
但由于半导体周期和全球经济疲软等各种因素影响,2023财年第一季度,AMD数据中心的营收是13亿美元,按年同比没有增长,与之形成鲜明对比的是英伟达数据中心业务营收达42亿,更恐怖的是其预计的第二季度的营收将达到100亿。
当然你也不能全怪AMD,实际上英伟达一骑绝尘于所有芯片厂商,目前它的市值是AMD的五倍还多(一个有趣或讽刺的事实是,AMD的市值高于英特尔)。
因为英伟的GPU被普遍认为是大模型LLM训练与推理所必不可少的“关键基础设施”,在生成式AI爆发的大背景下,算力成为了新的石油,每个人都在竭尽全力地争夺。
AMD现在想要改变人们这一固有看法。
6月13日,AMD在一场名为AMD数据中心和技术首映的发布会上公布了一系列新技术和产品。从这个名字我们就能看出来,AMD聚焦的非常精准,就是数据中心产品。
最吸引人的是名为MI300X的GPU,它直接对标了英伟达的H100——目前最先进的GPU,训练大模型必不可少的基础设施。
MI300X有高达192GB内存,提供5.2TB的带宽,AMD宣称相比上一代使用CDNA 2 架构的 MI250 提高了8倍性能和5倍效率。而MI300X内存不论密度还是容量都高于英伟达H100。
由于内存巨大,大规模神经网络甚至不需要借助外部带宽来传输数据,仅在芯片内部就能实现运行。苏姿丰Lisa Su——AMD的强人CEO,中文世界昵称苏妈,笑容满面的宣称单个MI300X就能运行800亿参数的大模型。
AMD第一款超级芯片诞生了。
与超级芯片相伴的自然是超级计算机,英伟达有DGX,AMD则推出了名为 Instinct(直觉)的计算平台。它由八个MI300X组成,因此拥有高达1.5TB的HBM3内存。
除了MI300X外,这个系列还有一款早先已经发布的MI300A,它不是纯GPU而是APU,即在一颗芯片上同时集合了CPU和GPU,晶体管数量较MI300X略少,为1460亿个,针对的也是数据中心市场。
纵观MI300系列产品,目标可谓十分精准——一切为了大模型。苏姿丰预计到2027年AI芯片市场将达到1500亿美元规模,这意味着它的复合年增长率超过50%——在全球经济缓慢复苏的大背景下,这显然是个让人垂涎的巨大市场。
理工科出身,从小就被誉为神童的苏姿丰发布产品时往往给人一种“堆料”的感觉——具体好不好用先不说,咱的诚意先摆在这里了。
苏妈靠这种“诚意”,几乎一己之力将AMD从10年前的糟糕境地中拉了出来,当时AMD的股价长期在个位数。MI300系列同样给人这种感觉,关键数据指标上十分“顶”——内存更大意味着单个GPU提供了更强的性能,这实际上等同于降低成本。
然而发布会举行的当天,AMD的股价应声下跌超过3%,而英伟达市值第二次超过万亿美元。
这是为什么?

比硬实力更重要的东西

什么东西比硬实力更重要?时间。
市场对于AMD反应不佳的原因归纳起来有两点,都和时间有点关系。
其一是,MI300X在第三季度才能提供样品,第四季度才正式生产,那么伴随工艺磨合与产能爬坡等一系列问题的逐步解决,大批量出货不会早于2024年中,相比之下,英伟达H100是2022年10月上市的,也就是说AMD比它的竞品晚了至少18个月才进入市场,这对任何领域的后发者都不是一个好消息,更不用说一日千里进步的AI加速器市场了,何况AMD面对的还是在该领域占据近60%份额的巨无霸。
第二是有关英伟达的先发优势,这种优势不仅在于英伟达更早、更大规模地进入并行计算领域,更在于它已经为之打造了一个软硬件一体协调的生态——人们使用CUDA软件充分发挥英伟达GPU的性能,而CUDA生态连接着开发者和AI生态产业链上下游——平台生态成为一条宽而深的护城河。硬件迁移或许是容易的,但核心技术、代码、开发环境的整体搬迁则要伤筋动骨得多。
AMD有什么理由说服别人转换到Instinct平台?实际上在6月13日的这场发布会上,AMD没有公布MI300X的任何客户,相比之下英伟达6月2号在COMPUTEX发布DGX GH200 超级计算机的同时就介绍了三个已经下单的大客户:谷歌云、Meta和微软。每一个都如雷贯耳。
除了时间之外,一些对技术路线的讨论也给AMD的“硬实力”蒙上了一层阴影,比如192GB的大内存。
由于采用了更适合AI计算的HBM3,而不是DDR5内存规格,MI300X面临着两个问题,第一它的售价不会太便宜,因为HBM3工艺复杂成本高昂,而如果MI300X的售价(AMD还没有公布任何价格信息)哪怕接近H100,都会让它的吸引力大打折扣。
第二,采用HBM3内存并不是AMD的独家发明,而是业界通行做法。英伟达Grace Hopper 超级芯片里的GPU同样使用了HBM3内存(96GB),因此它无法构成显著的技术护城河——甚至,超越的方法都不限于一种。比如英伟达的NVLink技术可以在几乎无损的情况下串联256个Grace Hopper 超级芯片,这让超级计算机的内存容量高达144TB。

AMD的软实力解法

AMD自己不会不知道这些问题,特别是英伟达CUDA护城河,想要突破这种时间积累起来的优势,非得想一些绝招不可。
其实AMD有自己类似CUDA的GPU生态软件系统,名叫ROCm,但一直以来都存在诸多缺点,比如操作系统长期只支持Linux,一度只适配高端显卡等等,加上参加革命比较晚,让ROCm始终无法稳定构建一个强大的开发生态——相比之下CUDA有超过400万以上的开发者。
于是AMD想到了合作。在发布会上AMD公布了两项合作,一个是PyTorch基金会,这让ROCm(也就是AMD芯片)能够全面支持PyTorch 2.0。
另一个合作对象则是人工智能初创公司Hugging Face。双方的合作将确保AMD的硬件针对Hugging Face的模型进行优化,以充分发挥像MI300X这种硬件的潜力。AMD宣称在初步的测试中,MI250在BERT-Large训练上比竞品快了1.2倍,而GPT2-Large训练上则快了1.4倍。
这种合作对吸引开发者和客户转投AMD平台有一定的吸引力。Hugging Face是一个主张开源的模型服务提供商,平台上托管了数以万计的预训练模型和数据集,许多企业正在利用这个平台构建、训练和部署自己的AI模型。
这恰好能补上AMD在平台生态上的短板,因为ROCm实际上也是基于开源项目编写的,它不限定编程技术,框架上除了支持PyTorch外,还有Tensorflow,甚至通过HIP,ROCm能够实现对CUDA的完全兼容。与Hugging Face的合作将让ROCm与其开源库无缝集成,也就是说Hugging Face的模型在AMD芯片上能够做到开箱即用而不需要开发者复杂的调试。
Hugging Face已经在官网表示,Transformer架构和生成式AI模型都将得到这种支持,这显然将促进AMD的生态繁荣,意味着很快我们将能看到基于AMD芯片原生训练的大模型。

极速变动的市场与不愿被垄断的需求

Hugging Face是目前十分活跃的人工智能领域独角兽企业,模型托管服务和开源特性让它成为了许多大厂的合作伙伴。
仅仅今年上半年,Hugging Face就宣布了与亚马逊云和IBM的合作,还进一步深化了和微软Azure原本就有的紧密关系。
AMD只是Hugging Face一连串合作列表里最新一个而已。它的加入标志着大模型和生成式AI的兴起正在使云服务提供商和芯片提供商为开发者提供更多基础服务——不仅包括算力,也包括各种基础模型的调用。
这正是AMD缺乏而Hugging Face具有显著优势的领域。Hugging Face的口号之一是让人工智能民主化,这也就意味着它从根本上反对任何对市场的垄断和独占行为,同AI产业的上下游紧密协作不仅有利于让更多的人受益于最新的软硬件技术,还通过引入竞争让这些技术变得更具性价比——也就是所谓民主化了。
“开源意味着可以自由地基于广泛的软硬件中构建解决方案。”在与AMD合作的博客文章最后如此说到。
这显然为AMD在AI领域的奋起直追创造了条件,因为“民主化”的另一种说法就是“生态繁荣”,而繁荣的生态构建了英伟达最宽广的护城河。
AMD还有机会。路透社曾在AMD发布会前后脚宣称亚马逊云正在考虑使用AMD的最新产品,这让AMD的股价应声而涨——因为大家都非常关注英伟达潜在的替代选项。
实际上包括谷歌、Meta等在内的云服务大厂都在打自研芯片的主意,为的就是不再白白给处于近乎垄断地位的英伟达交“算力税”,五月时甚至一度传出微软在和AMD展开芯片领域合作。
大家这种不约而同的反应恰恰反映了如今AI产业正处于一个激烈变革的时间节点,它孕育着机会。对AMD来说这一场战役也不容有失:AI产业爆发的另一面是整个行业大环境的下行压力进一步加大,巨头们投入GPU的预算越多,留给数据中心别的业务的钱就越少——而这在过去是AMD营收的重要来源。
苏姿丰把人工智能上升为AMD的“最高战略优先级”,MI300X是她最新的得意之笔,但正如我们前面所分析的,硬实力之外AMD还需要有更巧的软实力打法,才能在这场千载难逢、剧烈变动却又森严的竞争版图中为自己挣得应有的地位。
2006年,AMD收购ATI获得了图形处理技术,由此展开了和英伟达在GPU领域漫长的竞争。现在,这场比赛正式进入了名为“人工智能”的新赛季。
我们拭目以待。








· 文章版权归品玩所有,未经授权不得转载。
· 发送关键词 转载合作招聘 到品玩微信公众号,获得相应信息。
· 您亦可在微博、知乎、今日头条、百家号上关注我们。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
让ChatGPT调用10万+开源AI模型!HuggingFace新功能爆火:大模型可随取随用多模态AI工具支持80+编程语言!集成VSCode,HuggingFace代码大模型来了AMD的千亿晶体管芯片,叫板英伟达H100碾压LLaMA的最强开源大模型居然来自阿联酋,OpenAI和HuggingFace 为它吵了起来对标ChatGPT!Hugging Face推出开源聊天机器人HuggingChat巨头“火拼”AI芯片!AMD力抗英伟达碾压LLaMA,「猎鹰」彻底开源!400亿参数,万亿token训练,霸榜Hugging Face对Hugging Face开源模型精准投毒!LLM切脑后变身PoisonGPT,用虚假事实洗脑60亿人对标ChatGPT,Hugging Face推出开源聊天机器人HuggingChat不对齐,反而性能爆表?130亿模型碾压650亿,Hugging Face大模型排行榜发布英特尔把对抗英伟达的希望,寄托在了中国优胜劣汰,赢家通吃,交易商如何影响世界?老黄深夜炸场,AIGC进入iPhone时刻!Hugging Face接入最强超算,神秘显卡胜过A100支持80+编程语言、集成VSCode,HuggingFace代码大模型来了比HuggingFace快24倍!伯克利神级LLM推理系统开源,碾压SOTA,让GPU砍半报告:赢家通吃,PC和主机Top 50游戏抢走70%平台在线玩家一场 AI 引发的开源革命迫在眉睫?Hugging Face 更改文本推理软件许可证,不再“开源”Huggingface榜首开源模型惹争议:魔改Apache协议,达到一定门槛要收钱入 土 为 安第一百章 转战抗原代替核酸检,尚未恢复落地签名校申请成玄学?我们找到一项“赢家通吃”的软技能1530亿晶体管芯片发布,AMD正式叫板英伟达HuggingChat叫板ChatGPT!300亿参数大模型免费用,网友:真香第九十九章 破案为了中国市场,Hugging Face 甚至玩上了小红书黄仁勋再讲AI:英伟达算力直通Hugging Face,Omniverse加入OpenUSD给爆火的Llama 2划重点,Huggingface机器学习科学家写了篇分析文章​ISC 2023第十一届互联网安全大会开幕;多家车企官宣降价;英伟达与AI开源社区Hugging Face合作……硬核观察 #993 Hugging Face 发布免费的代码生成 AI彻底反转:号称「碾压」LLaMA的Falcon实测得分仅49.08,HuggingFace决定重写排行榜代码红杉等一线资本云集,Hugging Face是怎么成为AI创造力中心的?Hugging Face:在人工智能的大航海时代悄悄地造一艘方舟|全球独角兽回国花絮-20万大洋买国内奢侈品牌衣服Python 失宠!Hugging Face 用 Rust 新写了一个 ML 框架,现已低调开源
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。