Redian新闻
>
比英伟达H100快90%!最强大模型AI芯片来了,首搭141GB HBM3e

比英伟达H100快90%!最强大模型AI芯片来了,首搭141GB HBM3e

科技

最强AI芯片H200:算力不变,性能飙升,容量翻倍,带宽大涨。
作者 |  程茜
编辑 |  心缘
智东西11月14日报道,昨日晚间,英伟达在国际超算大会SC23上宣布推出新一代AI计算平台NVIDIA HGX H200
H200 GPU重点升级如下:
跑70B Llama 2,推理速度比H100快90%
跑175B GPT-3,推理速度比H100快60%
首撘141GB HBM3e,是H100显存容量的近1.8倍;带宽4.8TB/s,是H100带宽的1.4倍
2024年第二季度发货

▲H200完整参数表

需注意的是,虽然都是“200”,但与此前英伟达发布的GH200 Grace Hopper超级芯片不同,GH200是英伟达Grace CPU与H100 GPU的组合版,而H200是新一代GPU芯片,为大模型与生成式AI而设计,因此相比H100主要优化的是显存和带宽算力则与H100基本持平

01.
内置全球最快内存
大模型推理速度大增


HGX H200支持NVIDIA NVLink和NVSwitch高速互连,可支持超过1750亿参数规模模型的训练和推理,相比于H100,H200的性能提升了60%到90%。英伟达高性能计算和超大规模数据中心业务副总裁Ian Buck将其描述为“世界领先的AI计算平台”。

这也是首款内置全球最快内存HBM3e的GPU,英伟达的新闻稿写道,GPT-3的推理表现中,H100的性能比A100提高了11倍,H200 Tensor Core GPU的性能比A100提高到了18倍

Buck称,英伟达将在未来几个月内继续增强H100和H200的性能,2024年发布的新一代旗舰AI芯片B100将继续突破性能与效率的极限。

在生成式AI基准测试中,H200 Tensor Core GPU每秒在Llama2-13B大型语言模型上每秒快速通过1.2万个tokens。

单张H200跑700亿参数的Llama 2大语言模型,推理速度比H100快90%8张H200跑1750亿参数的GPT-3大语言模型,推理速度比8张100快60%

在HBM3e的助攻下,NVIDIA H200能以每秒4.8TB的速度提供141GB内存,与NVIDIA A100相比,容量几乎翻倍,且带宽增加了2.4倍

02.
兼容H100,明年第二季度开始供货


英伟达还展示了一个服务器平台,可以通过NVIDIA NVLink互连连接四个NVIDIA GH200 Grace Hopper超级芯片,其具有四路和八路配置。
其中,四路配置在单个计算节点中配备了多达288个Arm Neoverse内核和16PetaFLOPS的AI性能,以及高达2.3TB的高速内存。

八路配置的HGX H200提供超过32PetaFLOPS的FP8深度学习计算和1.1TB聚合高带宽内存,可在生成式AI和HPC应用中实现最高性能。

当与具有超快NVLink-C2C互连的NVIDIA Grace CPU配合使用时,H200还创建了带有HBM3e的GH200 Grace Hopper超级芯片,这是可以服务于大规模HPC和AI应用的集成模块。

这些服务器主板与HGX H100系统的硬件和软件兼容。它还可用于英伟达8月份发布的采用HBM3e的新一代NVIDIA GH200 Grace Hopper超级芯片中。

基于此,H200可以部署在各种类型的数据中心中,包括本地、云、混合云和边缘。包括华硕、戴尔科技、惠普等在内的英伟达全球生态系统合作伙伴服务器制造商也可以使用H200更新其现有系统。

H200将于2024年第二季度开始向全球系统制造商和云服务提供商供货。

除了AI算力和云服务公司CoreWeave、亚马逊无服务器计算服务Lambda和云平台Vultr之外,AWS、谷歌云、微软Azure和甲骨文云将从明年开始成为首批部署基于H200实例的云服务提供商。


03.
全球TOP 500超算榜
基于英伟达技术的系统达379个


此外,基于10月英伟达发布的TensorRT-LLM开源库,英伟达GH200超级芯片的速度是双插槽x86 CPU系统的110倍,能效是x86 CPU + H100 GPU服务器的近2倍

在全球TOP 500超算榜中,得益于由NVIDIA H100 Tensor Core GPU提供支持的新系统,英伟达在这些系统中提供了超过2.5ExaFLOPS的HPC性能,高于5月份排名中的1.6ExaFLOPS。
同时,新的全球TOP 500超算榜名单中包含了有史以来使用英伟达技术数量最多的系统为379个,而5月份的榜单中为372个,其中还包括了38台超级计算机
英伟达加速计算平台还提供了强大的软件工具支持,能使开发人员和企业构建和加速从AI到HPC的生产就绪型应用程序,其中包括用于语音、推荐系统和超大规模推理等工作负载的NVIDIA AI Enterprise软件套件。

04.
结语:围绕大模型核心痛点
剑指加速计算需求


生成式AI催生的大量加速计算需求仍然在不断增长,大模型开发和部署带来的算力需求也成为企业的核心痛点,性能更强的AI芯片仍然是当下大模型企业竞争的重点之一。
如今,英伟达再次围绕着生成式AI的开发和部署甩出了一系列硬件基础设施和软件工具,帮助企业突破大模型开发和部署的核心痛点,并且通过在数值、稀疏性、互联、内存带宽等方面的革新,不断巩固其在AI时代的霸主地位。

(本文系网易新闻•网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
英伟达H800/A800禁售,30天生效!美芯片禁令升级,仅剩V100可用?OpenAI史诗级更新!最强大模型炸场,128K上下文、价格暴降2/3,还能定制专属GPTAMD MI300绝杀英伟达H100?跑GPT-4性能超25%,AI芯片大决战一触即发谷歌深夜放大招!最强大模型Gemini能打败GPT4吗?16000颗H200超级芯片!最强云计算亚马逊云科技和英伟达“合体”了:推出云AI超级计算机美芯片禁令升级!英伟达H800/A800禁售,30天生效!仅剩V100可用?囤H100的都成了大冤种!英伟达发布最新AI芯片H200:性能提升2倍,成本下降50%[评测]Corsair Dominator Titanium RGB 48GB(2x24GB) DDR5 7200Mhz C36英伟达H200突然发布!最强AI芯片!容量翻倍,带宽狂飙!6008 血壮山河之随枣会战 南昌之战 1“围猎”英伟达H100与家人游览杭州西湖9.1GHz!专家使用英特尔 i9-14900KF 处理器刷新超频纪录旅美散记(12):幼儿不知甜滋味传美收紧对华AI芯片出口限制,或影响英伟达H800,预计本周公布美光将向英伟达供应HBM三星发布HBM3E 内存:36GB 堆栈,速度为9.8 Gbps囤 H100 的都成了大冤种!英伟达发布最新 AI 芯片 H200:性能提升 2 倍,成本下降 50%大华股份发布星汉大模型;苹果AI服务器支出明年或达47.5亿美元;英伟达H100成新型债务资产丨AIGC大事日报英伟达H800/A800禁售,30天生效!芯片禁令升级,仅剩V100可用?SK海力士宣布增产DRAM,与英伟达联手制定HBM4规格,让存储和逻辑堆叠起来苹果M3、M3 Max芯片首个Geekbench跑分出炉英伟达H100的最强替代者英伟达H100,没那么缺货了!RTX 4090 ,大涨!揭秘:英伟达H100最佳替代者英伟达H200突然发布:容量翻倍,带宽狂飙突发!英伟达H800/A800禁令竟提前生效,但4090意外豁免!突发!英伟达H800/A800禁令竟提前生效,但4090意外豁免英伟达将为中国开发改款合规芯片;马斯克AI模型Grok下周定向开放;拼多多成立大模型团队丨AIGC大事日报最强大模型训练芯片H200发布!141G大内存,AI推理最高提升90%,还兼容H100第七章第四节 宗教旧文化在欧洲的衰落碾压H100,英伟达下一代GPU曝光!首个3nm多芯片模块设计,2024年亮相全球首款3nm芯片塞进电脑,苹果M3炸翻全场!128GB巨量内存,大模型单机可跑,性能最高飙升80%月薪两万,互联网大厂疯抢AI数据标注员;iPhone16或推出AIGC功能;AMD推出AI芯片,对标英伟达H100丨AI周报全天候战略伙伴关系---委内瑞拉
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。