AMD 谈论堆叠计算和 DRAM
来源:内容由半导体行业观察(ID:icbank)编译自servethehome,谢谢。
在 ISSCC 2023 上,AMD首席执行官 Lisa Su 博士讨论了堆叠组件以及为什么需要先进的封装来实现未来的 Zettascale 计算。部分讨论围绕内存展开。
AMD 在 ISSCC 2023 上谈论堆叠计算和 DRAM
构建更大系统的一大限制因素是内存访问能力。这有两种形式,主要来自高速接口以及简单地向服务器添加更多内存通道。这是 AMD 从 2007 年左右到 2023 年的图表。
内存访问能力
我们最近讨论了过去十年中英特尔至强和 AMD EPYC 每核心和每插槽内存带宽的增加,并做了一个DDR5 服务器 RDIMM 文章,其中我们展示了为什么从 8 通道 DDR4 到 12 通道 DDR5 的跃升如此重要性能大跃进。
最大的挑战之一是在 I/O 端,那里的电源效率越来越好,但通道损耗正成为一个更大的挑战。
IO 互连的能源效率
这样做的最终影响是,从能源角度来看,封装到 DRAM 的成本越来越高。我们已经看到 HBM 已集成在 CPU 和 GPU 封装上的案例,但还有其他技术。其中包括使用共同封装的光学器件和 3D 芯片堆叠。
在 ISSCC 2023 上,AMD 展示了通过使用硅中介层(类似于 GPU 现在集成 HBM 的方式)使内存更接近计算的概念,以及在计算上堆叠内存的未来。通过 3D 堆栈移动数据比尝试将信号驱动到 DDR5 DIMM 插槽消耗的功率少得多。
更紧密的计算和内存集成
在谈话中,讨论了即将推出的 AMD Instinct MI300。本次演示中有趣的部分之一是 MI300 中 CPU 和 GPU 内核下方的 Infinity Cache 和 Infinity Fabric 芯片的 3D 堆叠。
AMD Instinct MI300
作为参考,我们在当前的Milan-X和即将推出的Ryzen 7000X3D系列中看到的 3D SRAM 堆叠将 SRAM 放置在 CPU 芯片上方。MI300 将改变这一点并将缓存置于 CPU 芯片下方。冷却是一项重大挑战,因此让热计算块更靠近液体冷却块是有意义的。
谈话中讨论的另一个快速话题是内存处理。我们在 Hot Chips 33 上介绍了三星 HBM2-PIM 和 Aquabolt-XL, AMD 表示正在与三星合作研究内存计算。这里的想法更加引人注目,因为不必将数据从内存中移出即可对其进行一些计算。
内存处理
这似乎比内存的一些封装改进还差得远。
最后的话
在系统内和机架内移动数据正成为业界关注的焦点。数据移动的能量和性能成本会降低系统的整体效率。因此,整个行业都在努力超越带有附加 DRAM 模型的典型 CPU,并转向新的架构。
查看英文原文,请点击文章最后的“阅读原文”。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3324内容,欢迎关注。
推荐阅读
半导体行业观察
『半导体第一垂直媒体』
实时 专业 原创 深度
识别二维码,回复下方关键词,阅读更多
晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装
回复 投稿,看《如何成为“半导体行业观察”的一员 》
回复 搜索,还能轻松找到其他你感兴趣的文章!
微信扫码关注该文公众号作者