服务器CPU狂飙,内存接口和互连技术步调一致吗?
由于内存接口芯片的大规模商用要经过下游厂商的多重认证,还要攻克低功耗内存接口芯片的核心技术难关,从 DDR4 世代开始,全球内存接口芯片厂商仅剩 Rambus、澜起科技和瑞萨(原 IDT)三家厂商。
DRAM 由于其结构简单,设计体积小,在服务器的内存中占主导地位,并得到了长足的发展,从 DRAM 逐渐演进到 SDRAM 再到 DDR SDRAM 系列。SDRAM为同步的动态随机处理器,同步指的是存储器的工作参考时钟,SDRAM 只能在信号的上升沿进行数据传输,其内核工作频率、时钟频率和数据传输速率三者相同,最高速率可达 200MHz。DDR SDRAM(Double Data Rate Synchronous DRAM)双倍速率同步动态随机存储器,可以在信号的上升沿和下降沿都进行数据传输,所以 DDR 内存在每个时钟周期都可以完成两倍于 SDRAM 的数据传输量。随着人工智能大热,各云服务内存数据的传输速率越来越跟不上 CPU 算力的发展。为了提高内存数据传输速率、减小功耗,DDR SDRAM 也逐代演变出了 DDR1-DDR5 系列。
全年来看,新一代服务器 CPU 的推出有望刺激服务器换机需求。CPU 作为服务器进行运算处理的核心“大脑”,是影响服务器性能的最重要硬件之一。Intel 和 AMD 作为服务器市场两大巨头接连在今年推出支持DDR5 的最先进服务器,Intel 最新推出的第四代至强(XEON)处理器 8490H 和 AMD推出的第四代霄龙(EYPC)处理器分别支持 8 通道 DDR5 和 12 通道 DDR5。
通常每一代 DDR 在上量后第一年末渗透率可达到 20-30%左右,第二年末渗透率可达到 50-70%左右,第三年末基本上就完成了市场绝大部分的渗透。虽然 2022 年 DDR5的渗透率不及预期,但是预计 2023 年后将进入快速放量期,预计 2023 年 DDR5 在服务器部署方面的比例将不足 20%,到 2025 年将达到 70%左右。
内存接口芯片按功能可分为两类,一是寄存缓冲器(RCD),用来缓冲来自内存控制器的地址/命令/控制信号;二是数据缓冲器(DB),用来缓冲来自内存控制器或内存颗粒的数据信号。仅采用 RCD 芯片对地址/命令/控制信号进行缓冲的内存模组通常称为RDIMM,而采用了 RCD 和 DB 套片对地址/命令/控制信号及数据信号进行缓冲的内存模组称为 LRDIMM。
1)服务器需求回升,单台服务器 CPU 配置提高。根据 IDC 数据,全球服务器市场在经历了 2019-2021 年的持续低迷期后迎来反弹,2022 年全球服务器出货量达到 1380万台。服务器可分为 AI 服务器和通用服务器,其中 AI 服务器起步较晚,但是增速惊人,2022 年 AI 服务器出货量约为总体的 1%,预计 2023-2025 年可以实现 60%左右的 CAGR;通用服务器预计后续实现平稳增长,CAGR 预期为 7%左右。
同时,大模型的出现导致对服务器的算力要求大幅提升,单个服务器 CPU 数量也因此增长。今年最新发布的联想 ThinkSystemSR850 和浪潮服务器 NF8480M5 已经实现标配 4 颗 CPU,最大配置 8 颗 CPU,而中科曙光的服务器标配和最大配置 CPU 数量均达到 8 颗,相比 2016 年联想服务器标配和最高配置 CPU 数量仅 1 颗已有明显提升。
2)内存接口芯片进入替换周期,DDR5 升级带来 DB 芯片及内存模组配套芯片增量需求。内存接口芯片最主要的下游应用是服务器,自从 2020 年 JEDEC 提出 DDR5 规范标准以后,各大服务器厂商开始计划推出兼容 DDR5 的新平台。在 DDR4 世代,LRDIMM 内则通常配置 1 颗 RCD+9 颗 DB;根据 DDR5 标准,LRDIMM 内将配置 1 颗RCD 和 10 颗 DB,此外需要配套一个串行检测芯片(SPD)、一个电源管理芯片(PMIC),以及 1-3 个温度传感器(TS)。DDR5 内存模组首次采用电源管理芯片(PMIC)以提升电源管理效能。DDR5 的渗透率不断提升带来了 DB 芯片和内存模组配套芯片新的增量需求。
3)DDR5 子代迭代速度加快,内存接口芯片均价有望维持稳定。在某一代具体产品周期中,销售单价逐年降低,但新的子代产品在推出时的单价通常高于上一子代产品。澜起科技 DDR4 世代每个子代的迭代周期约 18 个月左右,而 DDR5 世代子代迭代周期缩短,有利于保持稳定的 ASP 水平。
高带宽存储器(High Bandwidth Memory,HBM)是 AMD 和 SK 海力士发起的一种基于 3D 堆栈工艺的高性能 DRAM,适用于高存储器带宽需求的应用场合,如图形处理器、网络交换及转发设备(如路由器、交换器)等。
目前在 HBM2E 规范下,当传输速率上升到每管脚 3.6Gbps 时,HBM2E可以实现每堆栈 461GB/s 的内存带宽。此外,HBM2E 支持 12 个 DRAM 的堆栈,内存容量高达每堆栈 24GB。
这种新型的 CPU/GPU 内存芯片是垂直堆叠而成,再由“中介层(Interposer)”连接至 CPU/GPU,这种设计使信息交换时间大幅缩短,只需将 HBM 堆栈插入中介层并放置于 CPU/GPU 旁边,再将其连接至电路板即可。HBM 所具备的功能特性与芯片集成的DRAM 几乎无异,且垂直堆叠的特殊设计使 HBM 具有功耗、性能、尺寸等多方面优势。
CXL 具有的高兼容性和内存一致性使其迅速取代传统数据中心环境中的 PCIe,成为行业内最领先的互联标准。在兼容性方面,CXL 标准在接口规格上可兼容 PCIe5.0,能够被现有支持 PCIe 端口的处理器(绝大部分的通用 CPU、GPU 和 FPGA)所接纳,且能够解决 PCIe 在内存使用效率、延迟和数据吞吐量上的缺陷,因此英特尔将 CXL 视为在 PCIe 物理层之上运行的一种可选协议,在 PCIe 6.0 标准上大力推进 CXL 的采用。
在内存一致性方面,CXL 可在 CPU,以及 GPU、FPGA 等之间建立高速且低延迟的互连,维护 CPU 内存空间和连接设备上的内存之间的内存一致性,允许 CPU 与 GPU之间绕过 PCIe 协议,用 CXL 协议来共享、互取对方的内存资源。透过 CXL 协议,CPU 与 GPU 之间形同连成单一个庞大的堆栈内存池,CPU Cache 和 GPU HBM2 内存犹如放在一起,有效降低两者之间的延迟,故此能大幅提升数据运算效率。
在 AMD、ARM、IBM 以及英特尔等主要 CPU 供应商的支持下,CXL 已经成为领先的行业标准。CXL 技术未来市场潜力较大。根据美光科技在 2022 年 5 月召开的投资人说明会资料,受异构计算快速发展的驱动,2025 年 CXL 相关产品的市场规模可达到 20 亿美元,到 2030 年超过 200 亿美元。
PCIe 总线是当前最流行传输总线,具有传输速度快,兼容性、拓展性强的特点。由于硬件数据交互传输速度要求日益提升,驱动传统并行总线向高速串行总线的过渡,PCIe 相比以往 PCI、AGP、PCI-X 具有更快传输速率,得到广泛认可,并且正在不断迭代升级,朝着更高传输速率方向发展。从兼容性来看,以硬盘为例,PCIe 总线支持 AHCI、NVMe 和 SCSI 协议,有 SATA Express、M.2、PCIe、U.2 等多种接口,具有兼容性、拓展性强等特点。无线网卡、有线网卡、声卡、采集卡、转接卡等设备均可以直接插入插槽。
推荐阅读
2、随着电子书数量增加及内容更新,价格会随之增加,所以现在下单最划算,购买后续可享全店内容更新“免费”赠阅。
温馨提示:
扫描二维码关注公众号,点击阅读原文链接获取“架构师技术全店资料打包汇总(全)”电子书资料详情。
微信扫码关注该文公众号作者