Redian新闻
>
最强大模型训练芯片H200发布!141G大内存,AI推理最高提升90%,还兼容H100

最强大模型训练芯片H200发布!141G大内存,AI推理最高提升90%,还兼容H100

公众号新闻
梦晨 克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

英伟达老黄,带着新一代GPU芯片H200再次炸场。

官网毫不客气就直说了,“世界最强GPU,专为AI和超算打造”

听说所有AI公司都抱怨内存不够?

这回直接141GB大内存,与H100的80GB相比直接提升76%。

作为首款搭载HBM3e内存的GPU,内存带宽也从3.35TB/s提升至4.8TB/s,提升43%。

对于AI来说意味着什么?来看测试数据。

在HBM3e加持下,H200让Llama-70B推理性能几乎翻倍,运行GPT3-175B也能提高60%。

对AI公司来说还有一个好消息:

H200与H100完全兼容,意味着将H200添加到已有系统中不需要做任何调整。

最强AI芯片只能当半年

除内存大升级之外,H200与同属Hopper架构的H100相比其他方面基本一致。

台积电4nm工艺,800亿晶体管,NVLink 4每秒900GB的高速互联,都被完整继承下来。

甚至峰值算力也保持不变,数据一眼看过去,还是熟悉的FP64 Vector 33.5TFlops、FP64 Tensor 66.9TFlops。

对于内存为何是有零有整的141GB,AnandTech分析HBM3e内存本身的物理容量为144GB,由6个24GB的堆栈组成

出于量产原因,英伟达保留了一小部分作为冗余,以提高良品率。

仅靠升级内存,与2020年发布的A100相比,H200就在GPT-3 175B的推理上加速足足18倍

H200预计在2024年第2季度上市,但最强AI芯片的名号H200只能拥有半年。

同样在2024年的第4季度,基于下一代Blackwell架构的B100也将问世,具体性能还未知,图表暗示了会是指数级增长。

多家超算中心将部署GH200超算节点

除了H200芯片本身,英伟达此次还发布了由其组成的一系列集群产品。

首先是HGX H200平台,它是将8块H200搭载到HGX载板上,总显存达到了1.1TB,8位浮点运算速度超过32P(10^15) FLOPS,与H100数据一致。

HGX使用了英伟达的NVLink和NVSwitch高速互联技术,可以以最高性能运行各种应用负载,包括175B大模型的训练和推理。

HGX板的独立性质使其能够插入合适的主机系统,从而允许使用者定制其高端服务器的非GPU部分。

接下来是Quad GH200超算节点——它由4个GH200组成,而GH200是H200与Grace CPU组合而成的。

Quad GH200节点将提供288 Arm CPU内核和总计2.3TB的高速内存。

通过大量超算节点的组合,H200最终将构成庞大的超级计算机,一些超级计算中心已经宣布正在向其超算设备中集成GH200系统。

据英伟达官宣,德国尤利希超级计算中心将在Jupiter超级计算机使用GH200超级芯片,包含的GH200节点数量达到了24000块,功率为18.2兆瓦,相当于每小时消耗18000多度电。

该系统计划于2024年安装,一旦上线,Jupiter将成为迄今为止宣布的最大的基于Hopper的超级计算机。

Jupiter大约将拥有93(10^18) FLOPS的AI算力、1E FLOPS的FP64运算速率、1.2PB每秒的带宽,以及10.9PB的LPDDR5X和另外2.2PB的HBM3内存。

除了Jupiter,日本先进高性能计算联合中心、德克萨斯高级计算中心、伊利诺伊大学香槟分校国家超级计算应用中心等超算中心也纷纷宣布将使用GH200对其超算设备进行更新升级。

那么,AI从业者都有哪些尝鲜途径可以体验到GH200呢?

上线之后,GH200将可以通过Lambda、Vultr等特定云服务提供商进行抢先体验,Oracle和CoreWeave也宣布了明年提供GH200实例的计划,亚马逊、谷歌云、微软Azure同样也将成为首批部署GH200实例的云服务提供商。

英伟达自身,也会通过其NVIDIA LaunchPad平台提供对GH200的访问。

硬件制造商方面,华硕、技嘉等厂商计划将于今年年底开始销售搭载GH200的服务器设备。

参考链接:
[1]
https://www.youtube.com/watch?v=6g0v3tMK2LU
[2]https://www.nvidia.com/en-gb/data-center/h200/
[3]https://www.anandtech.com/show/21136/nvidia-at-sc23-h200-accelerator-with-hbm3e-and-jupiter-supercomputer-for-2024

《2023年度十大前沿科技报告》案例征集

量子位智库《2023年度十大前沿科技报告》,启动案例征集。诚邀顶级研究机构、一流投资大咖、前沿科技创新公司,参与共创,分享案例。

扫描图片二维码参与前沿科技案例征集。了解更多细节可联系报告负责人:郑钰瑶(微信:CarolineZheng_,请备注企业+姓名)。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
老黄深夜炸场,世界最强新品震撼发布:性能飙升90%,Llama 2推理速度翻倍 |【经纬低调分享】MetaMath:新数学推理语言模型,训练大模型的逆向思维英伟达H200突然发布!最强AI芯片!容量翻倍,带宽狂飙!真骨传导耳机!可以戴着游泳听歌,自带64G大内存全球首款3nm芯片塞进电脑,苹果M3炸翻全场!128GB巨量内存,大模型单机可跑,性能最高飙升80%比流计算资源效率最高提升 1000 倍,“增量计算”新模式能否颠覆数据分析?文心大模型4.0发布!李彦宏:相比GPT-4毫不逊色三种8卡GPU评测Llama2:解密大模型训练、微调和推理运行时的性能问题李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型缺德舅的Hoemstyle Flour Tortillas 还能怎么吃,试试这个,简单易做,太好吃了(视频+图文)16000颗H200超级芯片!最强云计算亚马逊云科技和英伟达“合体”了:推出云AI超级计算机H100最强竞品正式发布!推理快1.6倍,内存高达192GB,来自AMD母亲控诉美国杀害儿子外媒:英伟达特供芯片H20推迟至明年一季度发布兵败如山倒系列:我惨败于新东方,知乎和抖音!戳破气泡的正确方法AMD最强生成式AI核弹发布!跑大模型性能超H100,预告下一代AI PC处理器从H20到H200,国产算力差在哪儿?古希腊之冠老黄深夜炸场,世界最强AI芯片H200震撼发布!性能飙升90%,Llama 2推理速度翻倍,大批超算中心来袭大模型推理乘上RISC-V快车?国内AI芯片创企推大模型系列一体机印度买了16000颗H100和GH200芯片比英伟达H100快90%!最强大模型AI芯片来了,首搭141GB HBM3e英伟达发布最强AI芯片H200,性能狂飙/苹果将叫停摇一摇跳转广告/GPT-5 正在开发中囤H100的都成了大冤种!英伟达发布最新AI芯片H200:性能提升2倍,成本下降50%美图自研视觉大模型3.0发布!能“脑补”生图和精准修图,100天全面进化中科加禾崔慧敏:AI芯片+编译器才是王道!性能提升2~3倍,将推出大模型推理引擎丨GACS 2023谷歌最强AI大模型Gemini 1.0发布;Touch ID发明人宣布退休;麦当劳中国APP启动鸿蒙原生应用开发|AIoT情报从原理到代码理解语言模型训练和推理,通俗易懂,快速修炼LLM打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训34B参数量超越GPT-4!「数学通用大模型」MAmmoTH开源:平均准确率最高提升29%囤 H100 的都成了大冤种!英伟达发布最新 AI 芯片 H200:性能提升 2 倍,成本下降 50%哈工大发布大模型思维链推理综述:200+文献全面解析大语言模型思维链推理最新进展大型语言模型训练加速专场在线研讨会上线,三位专家将主讲AI服务器、训练框架和云上高性能存储架构无需经验, GPT大模型训练兼职
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。