今天是“Venado”超级计算机的剪彩仪式,早在 2021 年 4 月Nvidia 宣布其首款数据中心级 Arm 服务器 CPU 的计划时就曾暗示过这一点,并进行了一些详细讨论,但还不够充分。现在我们终于可以了解有关 Venado 系统的更多详细信息,并更深入地了解Los Alamos将如何使其发挥作用,更具体地说,为什么内存带宽和依赖于它的计算之间的更好平衡对此可能更为重要与世界其他 HPC 中心相比,该实验室的规模更大。1、ISC24 Presentation Market-Update(2024) 2、Hyperion Research ISC24 Presentation(2024) 3、ISC24 Presentation Navigating:HPC-AI-Quantum-and-Clouds1、ISC24 Presentation Considerations for Storage and Interconnects 2、ISC24 Presentation 4th-Annual-Global-QC-Market-Robust-and-on-the-Rise 3、ISC24 Presentation Considerations-for-Sustainability1、ISC24 Presentation Widespread AI Adoption Creates New Demands 2、ISC24 Presentations Forecasts and High Growth Areas 3、ISC24 Presentation Considerations for Cloud 4、ISC24 Presentation ConclusionsLos Alamos始建于 1943 年,是制造世界上第一批核武器的曼哈顿计划的所在地。当然,我们当时没有超级计算机,但Los Alamos一直在进行大量非常复杂的计算;有时是手工操作,有时是 IBM 的制表机使用打孔卡来存储和操作数据——这是一种早期的模拟形式。Los Alamos第一台进行此类计算的数字计算机名为 MANIAC,于 1952 年安装;它每秒可以执行 10,000 次操作,并运行蒙特卡罗模拟,利用随机性来模拟实际的确定性过程。在接下来的四十年里,洛斯阿拉莫斯使用了 IBM、Control Data Corporation、Cray、Thinking Machines 和 Silicon Graphics 的一系列超级计算机,并且是IBM 使用 AMD Opteron 处理器和Cell 加速器打造的“Roadrunner”于 2008 年安装,代表了 CPU 和加速器的首次大规模集成。最近,Los Alamos于 2015 年安装了耗资1.47 亿美元的“Trinity”系统,该系统由英特尔的英特尔至强和至强融核 CPU 组成,并配有 2 PB 内存和英特尔 100 Gb/秒 Omni-Path 互连。Trinity 值得注意,因为从大量内存中卸载计算结果需要突发缓冲区,以便机器可以继续计算。Trinity 的替代品是“Crossroads”超级计算机,该超级计算机于 2023 年 8 月安装,它基于英特尔的“Sapphire Rapids”Xeon SP 处理器,配备 HBM2e 堆叠内存和 HPE 的 Slingshot 互连。Los Alamos及其邻居桑迪亚国家实验室(Sandia National Laboratories)都渴望促进可集群成超级计算机的 Arm 服务器的创建,洛斯阿拉莫斯一直在通过 Cavium 的不幸的 ThunderX4 Arm 服务器项目来推动每个内核的内存带宽(以及然后是马维尔)。“Triton”ThunderX3 或 ThunderX4 都没有问世,因此Los Alamos诱使英特尔创建了 Sapphire Rapids 的 HBM 变体,并说服 Nvidia 创建了“Grace”CG100 Arm 服务器芯片。与其当前的“Hopper”GH100 和 GH200 GPU 加速器以及未来的“Blackwell”GB100 和 GB200 加速器配对。Venado 在西班牙语中的意思是鹿或雄鹿,也是新墨西哥州 Sangre de Cristo 山脉的一座山峰的名称,这就是新机器得名的地方。正如您所预料的那样,Hewlett Packard Enterprise 是该系统的主要承包商,并且正如我们所预期的那样,该系统没有使用 Nvidia 为制造共享内存 GPU 的超级 Pod 而创建的 GPU NVLink Switch 共享内存互连。两年前,当 Venado 系统架构正式确定时,有人讨论Los Alamos可能希望在具有 Grace-Grace 和 Grace-Hopper 计算的 Cray“Shasta”XE 超级计算机系统内使用 InfiniBand,而不是 HPE 的 Slingshot 以太网变体引擎,但事实证明,Los Alamos正在部署 200 Gb/秒的 Slingshot 11 互连。我们的猜测?每个端口速度为 200 Gb/秒的 HPE Slingshot 11 比端口速度为 400 Gb/秒的 Nvidia Quantum 2 InfiniBand 便宜很多。新的 Venado 系统并不是Los Alamos舰队中的主力机器,而是一个实验性的机器,它是根据自己的预算建造的,其明确目的是进行硬件和软件研究。Los Alamos采购的大多数机器都是为负责管理美军核武器库存的国家核安全管理局提出、建造、验收并立即投入使用的。早在 2021 年 5 月,我们就通过公告正式了解了 Venado:我们还通过与 HPC 项目经理 Jim Lujan 和Los Alamos模拟与计算实验室副主任 Irene Qualters 的交谈了解到,基本想法是在两种架构之间对计算周期进行 80/20 的分割。这意味着 80% 的flops 将来自 GPU(我们假设这是在 FP64 精度下完成的,以瓜分计算量),20% 将来自 GPU。考虑到在常规 GPU 加速机器中,95% 到 98% 的flops 来自 GPU,这台 Venado 机器看起来对 CPU 的负担比您预期的要重一些。正如 Gary Grider 所说,他是Los Alamos HPC 部门的领导者,在过去的两年半里担任该部门的负责人,同时也是突发缓冲区(burst buffer)的发明者,他有充分的理由告诉The Next Platform。“我们的应用程序是极其复杂的多物理场、多链路规模、极端多分辨率、极其复杂的程序包,其中包含数百万行代码,这些代码在半台机器上运行六个月才能得到答案,”Grider 解释道。“这对我们来说很正常,但对于许多其他能源部实验室(如果有的话)来说,情况并非如此。他们可能会将其视为一件不寻常的事情,但并非通常。运行这些应用程序需要六个月的时间是因为对内存的访问非常稀疏和不规则,因为它们试图做的事情非常复杂——应用程序正在尝试运行一个比实际问题大 50 倍的问题。因此,这最终成为我们为模拟环境购买的各种机器的驱动力,因为我们有这些需求。这最终成为我们不购买太多 GPU 的原因,因为如果你能做密集线性代数,GPU 就真的很好。但如果你所做的一切都是稀疏和不规则的,并且一切都是索引查找之类的,那么它们实际上并不比 CPU 更好。实际上,更重要的是你每美元可以购买多少内存带宽,而不是你可以购买多少 flops 。”也许很方便的是,在 GPU 上运行深度学习推荐系统 (DLRM:deep learning recommendation systems ) 的超大规模开发商和云构建商还需要一种方法来为这些推荐器缓存比 GPU HBM 内存中所能容纳的更多的嵌入量,Nvidia 给出了答案随之而来的是 Grace,一款出色的计算内存控制器,可额外提供 480 GB LPDDR5。或许并非巧合的是,两个 72 核 Grace 芯片通过 NVLink 端口连接形成一个超级芯片,蚀刻到 Grace 中的 Arm“Demeter”V2 内核具有 960 GB 的内存容量和 1 TB/秒的内存带宽。由于每个 V2 内核有四个 128 位 SVE2 矢量引擎,Grace-Grace 超级芯片可以自行提供 7.1 teraflops 的聚合峰值 FP64 计算。在正常情况下,当 GPU 执行大部分计算时,您可能会认为 Nvidia 会使用 Arm 的向量较少的“Perseus”N2 核心。我们认为美国的Los Alamos和瑞士的 CSCS 拥有“Alps”系统,促使 Nvidia 使用 V2 核心。并且得益于Grace CPU中相对较少的核心、相对便宜且低功耗的LPDDR5内存以及相对肥厚的480 GB可用内存,Grace在每核心内存带宽和单位内存带宽成本之间取得了很好的平衡。我们在此详细介绍的Grace CPU具有 16 个 LPDDR5 内存控制器,每个控制器的内存带宽总计为 546 GB/秒,容量为 512 GB。Grace 的交付版本只有 480 GB 内存和 500 GB/秒带宽。详细而言,Grace-Grace 超级芯片中的两个 CPU 通过 900 GB/秒 NVLink 芯片到芯片实现(chiplet 行话中的 C2C)相互连贯地链接。同样的 NVLink C2C 互连用于将 Grace CPU 连接到具有 80 GB 或 96 GB HBM3 或 141 GB HBM3E 容量的 Hopper GPU,具体取决于您购买的型号。无论如何,根据我们在 2022 年 5 月对 Grace 和 Hopper 的了解以及在计算上进行 80/20 的分割,我们进行了一些粗略的计算,并得出您将需要 3,125 个 Grace-Hopper 节点和大约 1,500 个 Grace-Grace 节点。Grace CPU 的 FP64 性能超出了许多人的预期——同样,我们认为这是有意为之,并且是由 HPC 客户而非 AI 客户驱动的——结果是实际的 Venado 系统拥有 2,560 个 Grace-Hopper 节点和 920 个 Grace-Grace 节点。如果您计算一下,总共有 316,800 个 Grace 核心,峰值 FP64 性能总计为 15.62 petaflops。Venado 节点中的 Grace CPU 共有 2 PB 主内存。(呵呵,您认为这是巧合吗?我们不这么认为。它的内存量与 Trinity 系统相同。)LPDDR5 内存的总带宽为 2.1 PB/秒。“盒子”中有 2,560 个 Hopper GPU,矢量核心上的 FP64 性能合计为 85.76 petaflops,张量核心上的 FP64 性能为 171.52 petaflops。如果您在 H100 上使用张量核心,则 Hopper 上的 FP64 为 92%,Graces 上的 FP64 为 8%,但如果仅使用矢量核心,则 Hopper 上的 FP64 为 85%。我们假设这些 Hopper GPU 每个具有 96 GB 的 HBM3 内存,总共 240 TB 的 HBM3 内存和 9.75 PB/秒的聚合带宽。如果进一步计算,就会发现机器 81% 的内存带宽位于 Hopper GPU 上,但惊人的 19% 位于 Grace CPU 上。作为与 HPE 合同的一部分,Venado 系统将配备驻留在 Slingshot 网络上的 Lustre 并行存储集群,Grider 表示,洛斯阿拉莫斯也希望在该机器上尝试DeltaFS 文件系统以及其他文件系统。Grider 表示,Venado 现已安装并正在运行,并且应该会在接下来的两个月内被接受,“除非有时会发生一些问题”,并且到 7 月份左右应该会有大量应用程序在实验机器上运行。
来源:半导体行业观察
相关阅读:
2023年服务器计算机CPU行业报告
SiFive P870高性能CPU,探讨RISC-V的未来
CPU超频和倍频技术
CPU技术路线、分类及全球市场竞争现状
CPU处理器散热技术
CPU性能基准测试研究综述(2023)
CPU处理器主要技术指标
CPU处理器的基本结构
鲲鹏CPU系列技术产业介绍
英伟达CPU ,吊打Intel和AMD?
Intel下一代数据中心CPU:Chiplet设计,性能240%提升
Intel揭示2023~2025服务器CPU路线图
NVIDIA最强CPU芯片架构
俄罗斯自研CPU大战华为&英特尔:一项测试领先鲲鹏
兆芯CPU+GPU技术路线
数据中心CPU芯片,ARM可堪重负?
CPU生态、价值与机遇研究
ARM Neoverse系列服务器CPU介绍
全球CPU市场格局(2022)
CPU处理器未来技术演进方向
信创从芯开始,CPU实现国产有多难?
CPU行业专题:国产替代空间及格局
CPU技术路线、分类及全球市场竞争状态
倪光南:RISC-V已成中国CPU领域最受欢迎的架构
CPU渲染和GPU渲染优劣分析
CPU研究框架:CPU国产替代空间广阔
中流击水:六大国产CPU厂商分析(2022)
免责申明:本号聚焦相关技术分享,内容观点不代表本号立场,可追溯内容均注明来源,发布文章若存在版权等问题,请留言联系删除,谢谢。更多架构相关技术知识总结请参考“架构师全店铺技术资料打包(全)”相关电子书(41本技术资料打包汇总详情可通过“阅读原文”获取)。温馨提示:
扫描二维码关注公众号,点击阅读原文链接获取“架构师技术全店资料打包汇总(全)”电子书资料详情。