美光研发路线图曝光,HBM4E、CXL 2.0、DDR5在列!
来源:内容由半导体行业观察(ID:icbank)编译自tomshardware,谢谢。
LPCAMM2 和 CXL 2.0 也在路线图上。
美光近日推出了针对服务器的基于单片 32Gb DRAM IC 的 新型 128GB DDR5-8000 RDIMM 内存模块,并分享了其对未来五年内即将到来的高性能和高容量内存技术的愿景。该公司还分享了一份路线图,其中包括之前未公开讨论的多项技术,包括 256 GB DDR5-12800 内存条、HBM4E、CXL 2.0 和 LPCAMM2。
带宽需求大的应用程序
当谈到需要带宽的应用时,美光预计它们在未来几年将继续使用 HBM 和 GDDR 类型的内存。24GB 8-Hi HBM3E 堆栈将于 2024 年初上市,每个堆栈提供超过 1.2 TB/s 的带宽,这将显着提高 AI 训练和推理的性能。该公司计划到 2025 年通过 36GB 12-Hi HBM3E 堆栈完善其 HBM3E 系列,这将进一步增加支持 HBM 的处理器的内存容量,但不会提高带宽。例如,如果 Nvidia 的 H100 拥有这些堆栈,则该公司可以使用 216GB 的 HBM3E 内存。到 2025 年,后 Blackwell GPU 将使用它们进行 AI 和 HPC 计算。
HBM 的真正革命将是 HBM4,它将于 2026 年到来。这些堆栈将采用 2048 位接口,需要内存、处理器和封装制造商密切合作才能使其正常工作。然而,回报是相当明显的,因为每个堆栈预计将具有超过 1.5 TB/s 的带宽。至于容量,美光预计在 2026 年至 2027 年期间推出 36GB 至 48GB 12-Hi 和 16-Hi 堆栈。据美光称,HBM4E 将于 2028 年推出。HBM4 的扩展版本预计将获得时钟并将带宽提高到 2+ TB/s,并将每个堆栈的容量提高到 48GB 至 64GB。
HBM 仍将是最昂贵和带宽要求最高的应用程序的特权。更便宜的产品,例如用于推理和显卡的 AI 加速器,将继续使用 GDDR。根据美光的路线图,下一版本的 GDDR — GDDR7 — 将于 2024 年底推出,数据传输速率为 32 GT/s(每台设备 128 GB/s 带宽),容量为 16 至 24Gb。随着 GDDR7 变得更加成熟,它将在 2026 年底的某个时候将速度提升至 36 GT/s(每个设备 144GB/s 带宽),并且每个 IC 容量将高于 24Gb(例如 32Gb、48Gb)。
容量
服务器需要内存,而美光 128 GB DDR5-8000 RDIMM 只是美光 32Gb DRAM IC 的开始。预计该公司将推出更多基于这些设备的产品。
为了兼顾容量和性能,美光预计在 2025 年提供 128GB – 256GB MCRDIMM 模块,数据传输速率为 8800 MT/s,然后提供容量超过 256GB、数据传输速率为 12800 MT/s 的 MRDIMM 2026 年或 2027 年。
对于需要进一步内存扩展的机器,美光准备推出 支持 CXL 2.0 的扩展器,具有 128GB - 256GB 容量 以及通过 PCIe 接口高达 36 GB/s 的带宽。随后将推出符合 CXL 3.x 标准的扩展器,带宽超过 72 GB/s,容量超过 256 GB。
低电量
对于低功耗应用,业界将继续使用 LPDDR 内存,并且根据美光的路线图,具有 8533 MT/s 或 9600 MT/s 数据传输速率的 LPDDR5X 将继续存在一段时间。与此同时,对于受益于模块内存的笔记本电脑和其他应用,美光计划从 2025 年开始提供 LPDDR5X-8533 16 至 128GB LPCAMM2 模块,然后从 2026 年中期开始提供容量为 192GB 及更高的 LPDDR5X-9600 LPCAMM 模块。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3581期内容,欢迎关注。
推荐阅读
半导体行业观察
『半导体第一垂直媒体』
实时 专业 原创 深度
识别二维码,回复下方关键词,阅读更多
晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装
回复 投稿,看《如何成为“半导体行业观察”的一员 》
回复 搜索,还能轻松找到其他你感兴趣的文章!
微信扫码关注该文公众号作者