剑指芯片“内存墙”,三星投资了一家光互连公司
来源:内容由半导体行业观察(ID:icbank)综合,谢谢。
Celestial AI Inc. 是一家开发光学芯片技术以加速人工智能模型的初创公司,他们在今天宣布已筹集 1 亿美元资金。此轮融资包括三星电子有限公司和保时捷股份公司风险投资部门的支持。IMEC 是世界上最大的纳米电子学研究实验室之一,也与大约六家其他支持者也参与其中。
部署在数据中心的高级人工智能模型并不总是能够尽可能快地运行。原因是性能问题,通常称为内存墙挑战。Celestial AI 开发了一种名为 Photonic Fabric 的光学互连技术,据称可以解决这个问题。
内存墙挑战与以下事实有关:处理器(特别是图形处理单元)的速度增长速度快于内存芯片的性能增长速度。因此,存储芯片正在努力满足数据中心的要求。这种现象开始对人工智能模型处理信息的速度产生负面影响。
如果显卡理论上每秒可以处理 2 GB 的数据,但在该时间范围内只能从内存中检索 800 MB 的数据,那么它只能处理这 800 MB 的数据。换句话说,GPU的处理能力无法充分利用。这会阻碍 AI 模型充分利用 GPU 的性能,从而限制处理速度。
Celestial AI 应对这一挑战的答案是提高处理器从内存检索数据并将信息发回的速度。该初创公司的光学结构互连在内存芯片和处理器之间传输数据,而不是以通常的电力形式,而是使用光。由于光的传播速度比电快,因此网络速度会提高。
Celestial AI 声称 Optical Fabric 可以提供每秒几太比特的计算到内存连接速度。此外,它的延迟在纳秒范围内也是有希望的。它并不是唯一一家使用光学方法来加速计算到内存数据移动的公司,但它声称其技术提供的带宽比竞争方法高出 25 倍。
一些光学互连通过处理器所谓的侧面将数据传输到处理器。Celestial AI 的光学结构并不连接到芯片的前端,而是作为一种基础层部署在芯片下方。这增加了可以移动信息的芯片表面积,这也是这家初创公司的技术承诺更快性能的部分原因。
让人工智能模型变得更快并不是这家初创公司承诺提供的唯一好处。Celestial AI表示,Optical Fabric还可以帮助数据中心运营商降低硬件成本。
由于某些技术限制,向 AI 集群添加更多内存通常需要添加更多处理器。据 Celestial AI 称,Optical Fabric 使公司能够提供额外的内存,而无需购买新的处理器。因此,硬件需求减少,从而降低了数据中心成本。
AI 创始人兼首席执行官戴夫·拉佐夫斯基 (Dave Lazovsky) 表示:“下一波数据中心基础设施的设计旨在通过光学互连实现内存和计算资源的分解,从而在人工智能工作负载效率方面带来巨大进步。”
该初创公司表示,其技术也支持其他用例。Celestial AI声称,Optical Fabric不仅可以用于在内存芯片和处理器之间移动数据,还可以在处理器之间移动数据。此外,它声称该技术可以管理每个处理器内的数据流。
Celestial AI 计划将其技术授权给芯片制造商等公司。据该公司称,Optical Fabric可以集成到GPU和中央处理器等产品中。该公司的技术计划还涉及内部开发的人工智能加速器芯片 Orion,该芯片使用 Optical Fabric 来管理数据移动。
👇👇 点击文末【阅读原文】,可查看原文链接!
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3447期内容,欢迎关注。
推荐阅读
半导体行业观察
『半导体第一垂直媒体』
实时 专业 原创 深度
识别二维码,回复下方关键词,阅读更多
晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装
回复 投稿,看《如何成为“半导体行业观察”的一员 》
回复 搜索,还能轻松找到其他你感兴趣的文章!
微信扫码关注该文公众号作者