Redian新闻
>
囤H100的都成了大冤种!英伟达发布最新AI芯片H200:性能提升2倍,成本下降50%

囤H100的都成了大冤种!英伟达发布最新AI芯片H200:性能提升2倍,成本下降50%

公众号新闻


编译 | 核子可乐、Tina

周一,半导体行业巨头英伟达发布了新一代人工智能芯片 H200,旨在为各种 AI 模型提供训练和部署支持。

H200 芯片是目前用于训练最先进的大型语言模型 H100 芯片的升级版,搭载了 141GB 的内存,专注于执行“推理”任务。在进行推理或生成问题答案时,H200 的性能相比 H100 提升了 1.4 至 1.9 倍不等。

性能拉升无极限?

据英伟达官网消息,基于英伟达的“Hopper”架构,H200 是该公司首款采用 HBM3e 内存的芯片。这种内存速度更快、容量更大,使其更适用于大语言模型。相信过去一年来花大价钱购买过 Hopper H100 加速器的朋友都会为自己的冲动而后悔。为了防止囤积了大量 H100 的客户们当场掀杆而起,英伟达似乎只有一种办法:把配备 141 GB HBM3e 内存 Hopper 的价格,定为 80 GB 或 96 GB HBM3 内存版本的 1.5 到 2 倍。只有这样,才能让之前的“冤种”们稍微平衡一点。


下图所示,为 H100 与 H200 在一系列 AI 推理工作负载上的相对性能比较:


可以看到,相较于 H100,H200 的性能提升最主要体现在大模型的推理性能表现上。在处理 Llama 2 等大语言模型时,H200 的推理速度比 H100 提高了接近 2 倍。

很明显,如果能在相同的功率范围之内实现 2 倍的性能提升,就意味着实际能耗和总体拥有成本降低了 50%。所以从理论上讲,英伟达似乎可以让 H200 GPU 的价格与 H100 持平。


得益于 Tansformer 引擎、浮点运算精度的下降以及更快的 HBM3 内存,今年起全面出货的 H100 在 GPT-3 175B 模型的推理性能方面已经较 A100 提升至 11 倍。而凭借更大、更快的 HBM3e 内存,无需任何硬件或代码变更的 H200 则直接把性能拉升至 18 倍。

哪怕是与 H100 相比,H200 的性能也提高至 1.64 倍,而这一切都纯粹源自内存容量和带宽的增长。

想象一下,如果未来的设备拥有 512 GB HBM 内存和 10 TB/ 秒带宽,性能又会来到怎样的水平?大家愿意为这款能够全力施为的 GPU 支付多高的价钱?最终产品很可能要卖到 6 万甚至是 9 万美元,毕竟很多朋友已经愿意为目前未能充分发挥潜力的产品掏出 3 万美元了。

英伟达需要顺应
大内存的发展趋势

出于种种技术和经济方面的权衡,几十年来各种处理器在算力方面往往配置过剩,但相应的内存带宽却相对不足。实际内存容量,往往要视设备和工作负载需求而定。

Web 基础设施类负载和那些相对简单的分析 / 数据库工作负载大多能在拥有十几条 DDR 内存通道的现代 CPU 上运行良好,但到了 HPC 模拟 / 建模乃至 AI 训练 / 推理这边,即使是最先进 GPU 的内存带宽和内存容量也相对不足,因此无法实质性提升芯片上既有向量与矩阵引擎的利用率。于是乎,这些 GPU 只能耗费大量时间等待数据交付,无法全力施展自身所长。

所以答案就很明确了:应该在这些芯片上放置更多内存!但遗憾的是,高级计算引擎上的 HBM 内存成本往往比芯片本身还要高,因此添加更多内存自然面临很大的阻力。特别是如果添加内存就能让性能翻倍,那同样的 HPC 或 AI 应用性能将只需要一半的设备即可达成,这样的主意显然没法在董事会那边得到支持。这种主动压缩利润的思路,恐怕只能在市场供过于求,三、四家厂商争夺客户预算的时候才会发生。但很明显,现状并非如此。

好在最终理性还是占据了上风,所以英特尔才推出了“Sapphire Rapids”至强 SP 芯片变体,配备有 64 GB HBM2e 内存。虽然每核分配到的内存才刚刚超过 1 GB,但总和内存带宽却可达到每秒 1 TB 以上。对于各类对内存容量要求较低的工作负载,以及主要受带宽限制、而非容量限制的工作负载(主要体现在 HPC 类应用当中),只需转向 HBM2e 即可将性能提升 1.8 至 1.9 倍。于是乎,Sapphire Rapids 的 HBM 变体自然成为 1 月份产品发布中最受关注、也最具现实意义的内容之一。英特尔还很有可能在接下来推出的“Granite Rapids”芯片中发布 HBM 变体,虽然号称是以多路复用器组合列(MCR)DDR5 内存为卖点,但这种内存扩容的整体思路必将成为 Granite Rapids 架构中的重要部分。

英伟达之前在丹佛举行的 SC23 超级计算大会上宣布推出新的“Hopper”H200 GPU 加速器,AMD 则将于 12 月 6 日发布面向数据中心的“Antares”GPU 加速器系列——包括搭载 192 GB HBM3 内存的 Instinct MI300X,以及拥有 128 GB HBM3 内存的 CPU-GPU 混合 MI300A。很明显,英伟达也必须顺应这波趋势,至少也要为 Hopper GPU 配备更大的内存。


英伟达在一个月前的财务会议上放出技术路线图时,我们都知道 GH200 GPU 和 H200 GPU 加速器将成为“Blackwell”GB100 GPU 及 B100 GPU 之前的过渡性产品,而后者计划在 2024 年内发布。人们普遍认为 H200 套件将拥有更大的内存,但我们认为英伟达应该想办法提升 GPU 引擎本身的性能。事实证明,通过扩大 HBM 内存并转向速度更快的 HBM3e 内存,英伟达完全可以在现有 Hopper GPU 的设计之上带来显著的性能提升,无需添加更多 CUDA 核心或者对 GPU 超频。
明年还有新的大冤种?

身处摩尔定律末期,在计算引擎中集成 HBM 内存所带来的高昂成本已经严重限制了性能扩展。英伟达和英特尔在 Sapphire Rapids 至强 Max CPU 上都公布了相应的统计数字。而无论英伟达接下来的 Blackwell B100 GPU 加速器具体表现如何,都基本可以断定会带来更强大的推理性能,而且这种性能提升很可能来自内存方面的突破、而非计算层面的升级。下面来看 B100 GPU 在 GPT-3 175B 参数模型上的推理能力提升:

因此,从现在到明年夏季之间砸钱购买英伟达 Hopper G200 的朋友,肯定又要被再割一波“韭菜”(当然,这也是数据中心持续发展下的常态)。

最后:H200 GPU 加速器和 Grace-Hopper 超级芯片将采用更新的 Hopper GPU,配备更大、更快的内存,且计划于明年年中正式上市。也正因为如此,我们才认定 Blackwell B100 加速器虽然会在明年 3 月的 GTC 2024 大会上首次亮相,但实际出货恐怕要等到 2024 年底。当然,无论大家决定为自己的系统选择哪款产品,最好现在就提交订单,否则到时候肯定会一无所获。

参考链接:

https://www.nvidia.com/en-us/data-center/h200/

https://www.nextplatform.com/2023/11/13/nvidia-pushes-hopper-hbm-memory-and-that-lifts-gpu-performance/?td=rt-3a

活动推荐

2023 年最后一场 QCon 全球软件开发大会将于 12 月 28-29 日在上海中优城市万豪酒店举办。

此次大会策划了 GenAI 和通用大模型应用探索、AI Agent 与行业融合应用的前景、LLM 时代的性能优化、智能化信创软件 IDE、LLM 时代的大前端技术、高性能网关设计、面向人工智能时代的架构、构建本土编程语言生态的实践、性能工程:提升效率和创新的新方法、LLM 推理加速和大规模服务、现代数据架构演进、建设弹性组织的经验传递、SaaS 云服务弹性架构设计、大模型研究进展与产业应用展望等专题。

QCon 上海 2023 现已进入7折特惠最后4天立减¥2040。咨询购票可联系票务经理 18514549229(微信同手机号)。更多大会相关资讯可扫码下方二维码了解,或点击「阅读原文」即可查看,12 月,我们上海见!

今日荐文

爱立信被曝裁掉整个广州研发团队:赔偿N+3加年终奖;英伟达将为中国定制三款芯片;马斯克旗下首款聊天机器人将开源 | AI一周资讯


“我不懂的、总有人懂”,软件开发行业已经开始扭曲变形


奥特曼放大招后,这家投资人砸了25亿的创业公司如何继续“中国OpenAI”称号?


当大模型被塞进PC:如何提升算力利用效率?


重塑GitHub、颠覆程序开发:GitHub Universe 2023发布重大更新


阳光保险自研"正言"大模型,已应用于寿险和车险销售等场景



你也「在看」吗? 👇

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
英伟达H100的最强替代者AMD MI300绝杀英伟达H100?跑GPT-4性能超25%,AI芯片大决战一触即发印度买了16000颗H100和GH200芯片注意!美签超过2年没更新EVUS将有可能取消签证!过期的抓紧更新!别当大冤种!英伟达发布最强AI芯片H200,性能狂飙/苹果将叫停摇一摇跳转广告/GPT-5 正在开发中百纳米完胜7纳米?清华团队在该芯片领域实现新突破,芯片性能提升万倍清华光电计算新突破:芯片性能提升万倍,研究登顶Nature大冤种!维州刚上空瓶回收项目,超市矿泉水就涨价40%!英伟达H200突然发布:容量翻倍,带宽狂飙花上千块抢音乐剧门票,我成了大冤种囤 H100 的都成了大冤种!英伟达发布最新 AI 芯片 H200:性能提升 2 倍,成本下降 50%从H20到H200,国产算力差在哪儿?OpenAI忙着“宫斗”,手握2.2万块H100的竞争对手趁机发布新款大模型:1750亿参数,性能仅次于GPT-4大冤种!多伦多小哥出国旅游,却被收四次住宿费!7600刀差点打水漂...英伟达H200突然发布!最强AI芯片!容量翻倍,带宽狂飙!老黄深夜炸场,世界最强AI芯片H200震撼发布!性能飙升90%,Llama 2推理速度翻倍,大批超算中心来袭Python 3.12 正式发布:性能提升、no-GIL将在 3.13 提供就一农民老黄H100再破纪录,4分钟训完GPT-3!全新「特供版」H20、L20和L2曝光,性能史诗级缩水开发成本降至5%!OpenAI计划推出新功能吸引开发者,也稳住用他们模型亏损的“大冤种”客户深夜炸场!英伟达发布新一代AI处理器H200;胡润:中国千万净资产家庭达211万户;李佳琦团队回应双11收入250亿丨邦早报骁龙8 Gen 3处理器发布:CPU性能提升30%、GPU提升25%盒马疯狂降价,买了会员的我成了大冤种微信刷掌、华为Mate60 Pro、苹果Apple Vision Pro、英伟达GH200超级芯片获金字招牌创新典范奖谈谈退休后医疗保险的选择最强大模型训练芯片H200发布!141G大内存,AI推理最高提升90%,还兼容H100大冤种!加拿大小哥出国旅游,却被收四次住宿费!7600刀差点打水漂...戳破气泡的正确方法【齐风猎作品】开花的狗尾巴草花上千块抢音乐剧门票,我成了​「大冤种​」16000颗H200超级芯片!最强云计算亚马逊云科技和英伟达“合体”了:推出云AI超级计算机节前“新娘花50万元买金条",现在成了大冤种?外媒:英伟达特供芯片H20推迟至明年一季度发布黄永玉,朱新建,和不画仕女画时的徐乐乐,他们画中国人与物的无歹相。很准。中科加禾崔慧敏:AI芯片+编译器才是王道!性能提升2~3倍,将推出大模型推理引擎丨GACS 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。