Redian新闻
>
GPU的未来展望

GPU的未来展望

公众号新闻

👆如果您希望可以时常见面,欢迎标星🌟收藏哦~

来源:内容由半导体行业观察(ID:icbank)编译自nextplatform,谢谢。

我们对数据中心的 CPU 计算引擎进行了 50 年的非常细粒度的分析,在 CPU 服务方面,变化以稳定但缓慢的速度发生。数据中心 GPU 计算引擎的兴起发生在短短的十五年之内,但据我们所知,还没有非常好的数据可以按数据中心的类型和价格范围来计算 GPU 计算。


部分原因是数据中心 GPU 计算引擎的绝大多数(过去四年超过 95%)都来自一个非常神秘的供应商:Nvidia。虽然英伟达相当善于披露其众多设备的数据源和速度,但它并没有透露哪些设备以多少数量销售到数据中心。


还有一种误解,认为“Volta”V100、“Ampere”A100 和“Hopper”H100 等最高端产品推动了 Nvidia 大部分收入和最终用于服务器的 GPU 加速器的出货量。事实证明,这不是真的。我们不知道这有多少是不正确的,但我们开始尝试找出答案。


作为起点,我们向富国银行股票研究部董事总经理兼技术分析师 Aaron Rakers 寻求了一些帮助。出于对 IT 市场研究中常见分析机构(IDC、Gartner、Mercury Research 等)提供的不完整 GPU 数据的同样的挫败感,Rakers 进行了一些挖掘并构建了自己的模型,我们正在使用该模型(经许可) )作为进一步预测数据中心 Nvidia GPU 市场将如何发展的基础,因为该公司转向每年发布一次 GPU 和 CPU-GPU 计算引擎公告,并且世界对 GPU 可能有着永不满足的胃口未来几年。


以下是 Rakers 对 2015 年至 2022 年全球 GPU 出货量和收入的估算,并从 2023 年到 2027 年进行了推断:



如您所见,2015 年至 2022 年间,数据中心 GPU 销量与数据中心 GPU 出货量密切相关。AMD 的出货量并不多,而英特尔在 2015 年至 2017 年间出货的是“Knights”Xeon Phi 系列多核加速器。(严格来说,这些 Xeon Phi 设备是失败的 GPU 卡,后来变成了计算引擎。)


到 2022 年,生成式 AI 爆发式增长,数据中心 GPU 收入的增长速度开始远远快于受限的出货量。当需求过多而供应过少时就会发生这种情况。Rakers 构建的模型假设这种供需之间的阻抗不匹配将持续到 2027 年,这就是为什么由 Nvidia 主导、AMD 和英特尔在统计上有显着贡献的数据中心 GPU 销售额到 2028 年可能会超过 1000 亿美元如果目前的趋势持续下去。


顺便说一句,上述数据包括出售给数据中心用于任何用途的任何 GPU,不仅是 HPC 和 AI,还包括视频编码、元宇宙沉浸式模拟和虚拟现实以及各种其他类型的加速。这意味着它不仅包括依赖中介层技术、HBM 堆叠内存和先进基板的设备,还包括使用 GDDR 内存、计算量显着减少且成本显着降低的低端设备。


Rakers 认为 Nvidia 将继续在 GPU 领域占据主导地位,直到 2027 年,因为我们从 Rakers 整理的演示文稿中复制了这个怪物表,然后对其进行了一些分析:



在此表中,我们将任何作为独立 PCI-Express 卡、SXM 模块或 CPU-GPU 混合封装出售的 100 系列 Nvidia GPU 称为单个 GPU。我们认为,当制作 GH200 Grace-Hopper 超级芯片时,Grace CPU 可能会使 Hopper H100 GPU SXM5 变体的成本增加 10,000 至 15,000 美元,而 Hopper GPU SXM 套件的定价在 30,000 美元到 30,000 美元之间。


据 Rakers 称,几周前,戴尔网站上的 H100 SXM5 设备标价为 57,500 美元。这不是英伟达从 GPU 上获得的钱,而是戴尔获得的钱。很难弄清楚 Nvidia 向 OEM、ODM 和直接客户收取 Hopper GPU 的费用,因为我们无法准确了解 Nvidia 数据中心部门或计算与网络部门体现的产品收入流。


我们对这些数据的主要研究是尝试找出 Nvidia 每年向数据中心运送多少 GPU 以及哪些类型,一般来说是使用 CoWoS/HBM 的 GPU 和不使用 CoWoS/HBM 的 GPU,以及根据我们的预测,这种情况可能会发生怎样的变化未来,英伟达将拥有更广泛的产品线和更快的产品发布节奏。


和其他人一样,我们听说了 Nvidia 数据中心路线图,该路线图于 2023 年 10 月发布,隐藏在财务演示文稿中,您可能还记得,我们调整了该路线图以消除一些错误,并为过去提供了更准确的时间未来将推出 200 系列(CPU+SXM GPU)、100 系列(SXM GPU)和 40 系列(GDDR 和 PCI-Express GPU),并添加“BlueField”DPU,仍以两年为周期。这是供您参考的路线图:



还有其他数据中心 GPU(我们在 2023 年 3 月称之为人工智能革命的四大主力)仍在由 Nvidia 销售,包括“Ampere”A40、“Turing”T4、“Lovelace”L4 以及 Hopper当时在 GTC 2023 大会上宣布的 H100NVL 双宽单元。据我们所知,就单位出货量而言,这些非 CoWoS/HBM 设备在出货量中占主导地位,而 CoWoS/HBM 设备在整个 Nvidia 产品线的性能和收入中占主导地位。


但根据我们的估计,CoWoS/HBM 设备在 Nvidia GPU 出货量中所占的份额将越来越大,从 2022 年至 2027 年(含)期间从四分之一左右上升到三分之一左右。这是我们的大胆猜测,如上表中的粗体红色斜体所示。


有两件事很难预测,但我们都想知道——我们是关注 IT 市场还是购买 IT 设备。第一个是每代 GPU 计算引擎的每一代将活跃销售多长时间,第二个是随着各代计算、内存和带宽容量的增加,这些产品将以什么价格出售?


我们假设一些事情。


首先,每个新的工艺节点和每个新的封装技术都会变得更加昂贵,而不是更便宜,因此我们相信所有产品系列的 GPU 设备都将变得更加昂贵,而不是更便宜。因此,我们预计,即使未来的“Blackwell”B100 和未来代号未知且可能可变的 X100 进入该领域,Hopper H100s(H200 只是 H100 的变体,具有更多 HBM 内存容量和带宽) )仍将在现场。甚至可能到 2027 年,届时 4 纳米工艺和当前一代的 CoWoS 封装和 HBM3 内存将会成熟,并且可能比现在更便宜,因此,以相同的价格或更低的价格,Nvidia 可以获得更多的利润。利润率。


我们认为 Nvidia 将拥有更广泛的产品线,其中包括寿命长的产品,这些产品随着时间的推移会变得更便宜,这就是为什么 GPU 的平均价格(正如 Rakers 所示)未来将保持不变。这就是我们要做的。就像与中档或低档 CPU 部件相比,顶级 CPU 部件的成本高于其相对性能一样,GPU 也将采用相同的 SKU 定价。设备越先进、越紧凑、容量越大,您支付的费用就越多。


来自AMD、英特尔和其他公司的竞争不会改变这一点,因为他们没有任何动机发动价格战。这是一列非凡的肉汁列车,没有人会试图破坏它。


我们想知道价格范围是多少,但几十年来 PC 和服务器中确实有这样的先例。对于 PC,从笔记本电脑到工作站级台式机,价格范围约为 250 美元、500 美元、900 美元、1,200 美元、1,700 美元、2,200 美元和 2,700 美元。(我们粗略地说了分级。)对于配置的数据中心服务器,配置的 X86 计算机的分级顺序为 2,500 美元、5,000 美元、8,000 美元、10,000 美元、20,000 美元、40,000 美元,依次类推。无论您谈论的是 PC 还是服务器,在这些价格范围内获得的计算、存储和网络方面的内容都会根据系统组件的路线图和经济性而变化。但 OEM 和 ODM 的目标不是改变价格,而是改变价格。这让我们养成了一个习惯:“我们的服务器低端机售价 10,000 美元,高端机售价 20,000 美元。” 然后人们就不再那么关心金钱了。


CPU 也已经进行了此类划分,并且给定频段所获得的结果会随着时间的推移而变化。


Nvidia V100 上市时的价格约为 10,000 美元,A100 也是如此,但 H100 的价格达到了 30,000 美元,并从此上涨。由于供不应求,所有 GPU 价格都随之上涨。我们不会感到惊讶的是,CoWoS/HBM GPU 可能会在 2024 年进入 10,000 美元、20,000 美元和 30,000 美元级别,而未来的 40,000 美元和 50,000 美元级别将在未来几代中出现。


用于推理、元宇宙和其他工作负载的低端设备的出货量将大得多,价格范围从 1,500 美元起,可能会升至 2,500 美元,然后是 5,000 美元,然后是 10,000 美元,最后是 20,000 美元。(几周前,戴尔网站上有一台 L40S,售价为 20,000 美元。)


这意味着,在未来的某个时候,可能会出现一个价值 100 万美元的人工智能服务器节点,配备 16 个 GPU,并满载互连、内存和计算。


原文链接

https://www.nextplatform.com/2024/01/11/the-datacenter-gpu-gravy-train-that-no-one-will-derail/

点这里👆加关注,锁定更多原创内容

END


*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第3642期内容,欢迎关注。


推荐阅读


EUV光刻机重磅报告,美国发布

碳化硅“狂飙”:追赶、内卷、替代

芯片巨头,都想“干掉”工程师!

苹果,玩转先进封装

GPU的历史性时刻!

大陆集团,开发7nm芯片

张忠谋最新采访:中国会找到反击方法

EUV光刻的新“救星”

『半导体第一垂直媒体』

实时 专业 原创 深度

公众号ID:icbank

喜欢我们的内容就点“在看”分享给小伙伴哦

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
联合国经济和社会事务部:2022年联合国电子政务调查报告-数字政府的未来TruEdu的写作课都教写啥呢?纽约已经"没落了"美金融大鳄豪言"它才是美国的未来"。人工智能的未来,与真实世界对齐淦!我加班2小时做的图表,那个会Tableau的新人只用10分钟从LiveVideoStackCon 2023深圳看音视频的未来这四个红州城市可能是美国的未来,休斯顿上榜国产CPU里程碑!龙芯最强处理器、自研GPGPU来了,披露Tock“三剑客”长岛除了冰茶,还有盯着NYU的杀猪盘伊能静儿子街头采访冲上热搜:穿女装读NYU的他,咋活成了这样?秋冬就穿奶fufu的“勃肯鞋”,保暖舒适不累脚!时髦精人手一双!GPU、CPU和DRAM接口互联技术又一位华裔女性成为美国主要城市市长:走进Lily Wu的世界李显龙:要有迎难而上的精神,才会有灿烂的未来你下班后的时间,藏着孩子的未来System76 升级 Serval WS Linux 移动工作站,最高 i9-14900HX CPU+RTX 4070 GPUNature揭示OpenAI内斗与反复翻转的内幕;其董事会设计的坍塌,关系到全人类的未来趣图:大自然也在用 Git,网友:那你怎么 pull 和 push只凭CPU/GPU性能换机的时代,过去了第一次入围澳洲肖像画奖SHNPAGPU的“泼天富贵”,英伟达一家吃不下星舰又一次“最成功的失败”!马斯克一路炸出个人类的未来?活动邀请 | 展望2024:彭博金属市场展望研讨会前英特尔图形主管 Raja Koduri:独立 GPU 不会很快被集成 SoC 取代,未来长路漫漫蔚来选的未来还有未来吗【推广】不是吧秒没?NEU的饱饱们注意了!波士顿饭团钜惠,特惠套餐$11.11大炫特炫!速来抢购!!冷却的不止季节(123)— 报仇淦!我加班2小时做的图表,那个会Tableau的实习生只用了10分钟???34、长篇民国小说《永泰里》第八章 国难当头(1)老钱:袁红冰谈xi猪头System76 升级 Serval WS Linux 移动工作站:最高 i9-14900HX CPU+RTX 4070 GPUAMD推出锐龙8040系列APU,采用Zen4 CPU+RDNA3 GPU中美元首会晤的背后与保险的未来深入了解浮点运算——CPU和GPU算力是如何计算的闲扯
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。