Redian新闻
>
英伟达生成式AI超级芯片GH200,两倍H100算力,黄仁勋:它会疯狂推理

英伟达生成式AI超级芯片GH200,两倍H100算力,黄仁勋:它会疯狂推理

公众号新闻

机器之心报道

编辑:小舟、蛋酱

新型服务器的核心,「the more you buy the more you save」。

等不及架构革新,英伟达「提前」发布了生成式 AI 专用的芯片。

当地时间 8 月 8 日,英伟达 CEO 黄仁勋在计算机图形学顶会 SIGGRAPH 2023 上发布了专为生成式 AI 打造的下一代 GH200 Grace Hopper 平台,并推出了 OVX 服务器、AI Workbench 等一系列重磅更新。

五年前,也是在 SIGGRAPH 大会的演讲中,英伟达宣布将 AI 和实时光线追踪引入 GPU ,可以说,当时的这个决定重塑了计算图形学。

「我们意识到光栅化已经达到了极限,」黄仁勋表示:「这要求我们重塑硬件、软件和算法。在我们用 AI 重塑 CG 的同时,也在为 AI 重塑 GPU。」

预言应验了:几年来,计算系统变得越来越强大,例如 NVIDIA HGX H100,它利用 8 个 GPU 和总共 1 万亿个晶体管,与基于 CPU 的系统相比,提供了显著的加速。

「这就是世界数据中心迅速转向加速计算的原因,」在今年的 SIGGRAPH 大会,黄仁勋重申:「The more you buy, the more you save.」


如今,训练越来越大的生成式 AI 模型所需的计算未必由具有一定 GPU 能力的传统数据中心来完成,而是要依靠像 H100 这样从一开始就为大规模运算而设计的系统。可以说,AI 的发展在某种程度上只受限于这些计算资源的可用性。

但黄仁勋断言,这仅仅是个开始。新模型不仅需要训练时的计算能力,还需要实现由数百万甚至数十亿用户实时运行的计算能力。


「未来,LLM 将出现在几乎所有事物的前端:人类就是新的编程语言。从视觉效果到快速数字化的制造市场、工厂设计和重工业,一切都将采用自然语言界面。」黄仁勋表示。

在这场一个多小时的演讲中,黄仁勋带来了一系列新发布,全部面向「生成式 AI」。

更强的 GH200 Grace Hopper 超级芯片平台


英伟达的 Grace Hopper 超级芯片 NVIDIA GH200 结合了 72 核 Grace CPU 和 Hopper GPU,并已在 5 月全面投入生产。

现在,黄任勋又宣布 Grace Hopper 超级芯片将配备 HBM3e 高带宽内存(HBM3e 比当前的 HBM3 快 50%),下一代 GH200 Grace Hopper 平台将大幅提升生成式 AI 的计算速度。


全新的 GH200 内存容量将增加至原有的 3.5 倍,带宽增加至 3 倍,包含一台具有 144 个 Arm Neoverse 核心、282GB HBM3e 内存的服务器,提供 8 petaflops 的 AI 算力。

为了提升大模型的实际应用效率,生成式 AI 模型的工作负载通常涵盖大型语言模型、推荐系统和向量数据库。GH200 平台旨在全面处理这些工作负载,并提供多种配置。

英伟达表示,这款名为 GH200 的超级芯片将于 2024 年第二季度投产。

Nvidia AI Workbench,模型即服务

此外,为了加快全球企业定制化采用生成式 AI,老黄宣布英伟达即将推出 Nvidia AI Workbench。

尽管很多预训练模型都是开源的,但使其定制化服务自身业务仍然具有挑战性。AI Workbench 减轻了企业 AI 项目入门的复杂程度,将所有必要的企业级模型、框架、软件开发套件和库整合到统一的 workspace 之中。

只需要在本地系统上运行的简化界面进行点击,AI Workbench 就能让开发者使用自定义数据微调 Hugging Face、GitHub 和 NGC 等流行存储库中的模型,然后将其扩展到数据中心、公有云或 Nvidia DGX 云。



黄仁勋还宣布英伟达将与 Hugging Face 合作,开发人员将能够访问 Hugging Face 平台中的 NVIDIA DGX Cloud AI 超级计算来训练和调整 AI 模型。这将使数百万构建大型语言模型和其他高级 AI 应用程序的开发人员能够轻松实现生成式 AI 超级计算。

「这将是一项全新的服务,将世界上最大的人工智能社区与世界上最好的训练和基础设施连接起来,」黄仁勋表示。

全新的 RTX 工作站和 Omniverse

老黄还宣布,英伟达与 BOXX、戴尔科技、惠普和联想等工作站制造商合作,打造了一系列全新的高性能 RTX 工作站。

最新发布的 RTX 工作站提供多达四个英伟达 RTX 6000 Ada GPU,每个 GPU 配备 48GB 内存。单个桌面工作站可提供高达 5828 TFLOPS 的性能和 192GB 的 GPU 内存。


根据用户需求,这些系统可配置 Nvidia AI Enterprise 或 Omniverse Enterprise 软件,为各种要求苛刻的生成式 AI 和图形密集型工作负载提供必要的动力。这些新发布预计将于秋季推出。

新发布的 Nvidia AI Enterprise 4.0 引入了 Nvidia NeMo,这是一个用于构建和定制生成式 AI 基础模型的端到端框架。它还包括用于数据科学的 Nvidia Rapids 库,并为常见企业 AI 用例(例如推荐器、虚拟助理和网络安全解决方案)提供框架、预训练模型和工具。

工业数字化平台 Omniverse Enterprise 是 Nvidia 生态系统的另一个组成部分,让团队能够开发可互操作的 3D 工作流程和 OpenUSD 应用程序。Omniverse 利用其 OpenUSD 原生平台,使全球分布的团队能够协作处理来自数百个 3D 应用程序的完整设计保真度数据集。

此次英伟达主要升级了 Omniverse Kit(用于开发原生 OpenUSD 应用和扩展程序的引擎),以及 NVIDIA Omniverse Audio2Face 基础应用和空间计算功能。开发者可以轻松地利用英伟达提供的 600 多个核心 Omniverse 扩展程序来构建自定义应用。

作为发布的一部分,英伟达还推出了三款全新的桌面工作站 Ada Generation GPU:Nvidia RTX 5000、RTX 4500 和 RTX 4000。

全新 NVIDIA RTX 5000、RTX 4500 和 RTX 4000 桌面 GPU 采用最新的 NVIDIA Ada Lovelace 架构技术。其中包括增强的 NVIDIA CUDA 核心(用于增强单精度浮点吞吐量)、第三代 RT 核心(用于改进光线追踪功能)以及第四代 Tensor 核心(用于更快的 AI 训练性能)。

Nvidia RTX 5000 Ada 一代 GPU。

这几款 GPU 还支持 DLSS 3,为实时图形提供更高水平的真实感和交互性,以及更大的 GPU 内存选项,用于大型 3D 模型、渲染图像、模拟和 AI 数据集的无差错计算。此外,它们还提供扩展现实功能,以满足创建高性能 AR、VR 和混合现实内容的需求。

因为配备了第三代 RT Core,这几款 GPU 的吞吐量高达上一代的 2 倍,使用户能够实时处理更大、保真度更高的图像,将应用于艺术创作和设计生产。

RTX 5000 GPU 已经上市,并由 HP 和分销合作伙伴发货,而 RTX 4500 和 RTX 4000 GPU 将于秋季从 BOXX、Dell Technologies、HP、Lenovo 及其各自的分销合作伙伴上市。

Nvidia OVX 服务器

英伟达还推出了配备 Nvidia L40S GPU 的 Nvidia OVX 服务器,用于生成式 AI 和数字化时代的开发和内容创作。

每台 Nvidia OVX 服务器将支持多达 8 个 Nvidia L40S GPU,每个 GPU 配备 48GB 内存。L40S GPU 由 Nvidia Ada Lovelace GPU 架构提供支持,拥有第四代张量核心和 FP8 Transformer 引擎,可实现超过 1.45 petaflops 的张量处理能力。

Nvidia L40S GPU。

在具有数十亿参数和多种数据模式的生成式 AI 工作负载领域,与 Nvidia A100 Tensor Core GPU 相比,L40S GPU 的生成式 AI 推理性能提高了 1.2 倍,训练性能提高了 1.7 倍。这将更好地满足 AI 训练和推理、3D 设计和可视化、视频处理和工业数字化等计算密集型应用的需求,加速多个行业的工作流程和服务。

参考链接:
https://blogs.nvidia.com/blog/2023/08/08/siggraph-2023-special-address/
https://venturebeat.com/ai/nvidia-launches-rtx-workstations-chips-for-content-creation-in-the-generative-ai-era/
https://techcrunch.com/2023/08/08/nvidia-ceo-we-bet-the-farm-on-ai-and-no-one-knew-it/

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
苏姿丰黄仁勋不谋而合,AMD推出超级芯片MI300?!英伟达CEO黄仁勋:我们害怕社交媒体,但我们不害怕人工智能黄仁勋深夜带来“亿点点”震撼,英伟达发布“世界上最快的内存”GH200超级芯片“皮衣刀客”黄仁勋:从夜市少年到“硅谷战神” |【经纬低调分享】五十二 保旗棉年度最绝融资:拿英伟达H100抵押贷款165亿,买更多英伟达GPU扩建10个数据中心碾压H100,英伟达下一代GPU曝光!首个3nm多芯片模块设计,2024年亮相五十一 治沙万达高级副总裁涉贪腐被带走调查;英伟达推出新一代超级芯片平台;碧桂园否认存在逾期未交付情况丨邦早报黄仁勋:做5年计划很荒谬,我就是做正在做的事情,错了就改日本警方首次利用AI技术监测网上犯罪相关帖子;英伟达10月15日召开AI峰会,黄仁勋将发表演讲丨AIGC日报英伟达生成式AI芯片在日本的价格飙升黄仁勋:英伟达的 AI 算力,已经「1 折」出售外派故事 (35)萍水相逢在南洋英伟达H100将在2024年之前售罄!推理GPU根本不够用,AI初创公司急了英伟达市值一夜暴涨5000亿,黄仁勋坐稳AI铁王座英伟达发布新一代超级芯片平台/苹果能在芯片上省数十亿美元/华为系统云翻新功能上线昨夜,黄仁勋甩出最强生成式AI处理器,全球首发HBM3e,比H100还快黄仁勋管理万亿英伟达的疯狂方法:没有计划、没有汇报、没有层级“皮衣刀客”黄仁勋:从夜市少年到“硅谷战神”英伟达、云厂商们也没有H100余粮了!未来全球顶级芯片缺口达40多万张英伟达发布AI芯片,明年二季度供货!黄仁勋称“它会疯狂推理”碾压H100!英伟达GH200超级芯片首秀MLPerf v3.1,性能跃升17%黄仁勋深夜带来“亿点点”震撼,英伟达发布“世界上最快的内存”GH200超级芯片 |【经纬低调分享】H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型黄仁勋:「核弹工厂」即将上线,要让所有人用上生成式 AI黄仁勋再讲AI:英伟达算力直通Hugging Face,Omniverse加入OpenUSDGPT-5出世,需5万张H100!全球H100总需求43万张, 英伟达GPU陷短缺风暴黄仁勋:“核弹工厂”即将上线,要让所有人用上生成式AI苹果将在iPhone芯片上省数十亿美元/英伟达推出AI超级芯片/万达回应副总裁被带走调查英伟达跌落神坛?黄仁勋:押注印度,对冲中国风险英特尔发布中国定制版大模型专用芯片Gaudi2,用性价比挑战英伟达|甲子光年英伟达起飞,黄仁勋暴富《思乡情》&《千樱雪》次韵
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。