存储大厂,股价飙升
来源:内容由半导体行业观察(ID:icbank)编译自WSJ,谢谢。
全球最热门的芯片领域之一由一家相对鲜为人知的韩国公司主导:SK海力士。
推动当前人工智能热潮的硬件与 Nvidia 关系最为密切。但与的 H100 处理器一起封装的是专用内存芯片,可以在人工智能应用程序背后实现令人难以置信的近乎瞬时计算数量。
SK海力士是Nvidia顶级AI处理器芯片最新高带宽存储芯片的主要供应商。这家总部位于韩国利川的公司长期以来一直是存储芯片繁荣与萧条领域的主要参与者,但它在历史上并未被视为行业先驱。
十年前,SK 海力士比竞争对手更积极地押注于高带宽内存(HBM),其中称为 DRAM 的内存芯片相互堆叠,就像摩天大楼的地板一样。该公司高级内存产品设计负责人Park Myeong-jae表示,该领域当时被认为是未知领域。
现在随着AI应用对高带宽内存需求的增加,SK海力士正在逐渐成为硬件领域的首批赢家,尽管来自其本土的三星电子正在缩小差距。
SK 海力士表示,其下一代 HBM 芯片每秒可处理相当于 230 部全高清电影的数据。
Park 表示,存储芯片不再仅仅为计算领域的参与者提供支持。“本质上,包括 HBM 在内的存储技术的发展正在为人工智能系统的未来发展铺平道路,”他在一次书面采访中表示。
尽管智能手机和电脑销量下滑导致整个存储芯片领域严重低迷,但 SK 海力士的股价自今年年初以来已上涨近 60%,几乎是三星电子涨幅的三倍,高于市场平均水平 。美光科技和的涨幅约为 30% 英特尔。值得一提的是,2023 年,英伟达的股价增长了两倍多。
尽管SK海力士今年经历了艰难的一年,该公司的收入仍然主要依赖于传统的存储芯片业务,但股价仍在上涨。在 4 月至 6 月的季度中,SK 海力士报告的净亏损约为 22 亿美元,这表明其财务状况尚未从高带宽内存领域的进步中获益。相比之下,英伟达 5 月至 7 月季度的利润超过 60 亿美元。
ChatGPT 等生成式人工智能工具会消耗大量数据,这些数据必须从内存芯片中检索并发送到处理单元进行计算。凭借其摩天大楼式的堆叠 ,HBM 旨在与 Nvidia、Advanced Micro Devices 和 Intel 等公司设计的 处理器更紧密地协同工作,从而提高性能。
SK Hynix 与 AMD 于 2013 年率先向市场推出高带宽内存。其最新的第四代版本将 12 颗传统 DRAM 芯片堆叠在一起,而之前的版本为 8 颗,并提供业界顶级水平的内存。数据传输效率和散热。
这一壮举需要发明将芯片堆叠和融合在一起的新方法。对于12层版本,SK海力士使用液体材料来填充层之间的间隙,取代了在每层之间施加薄膜的传统方法。
在其最新的堆叠工艺中,该公司使用强烈的热量来确保芯片层均匀地贴合在一起,并用 70 吨的压力将它们压缩以填充间隙。
大约十年前,Nvidia 和 AMD 寻求合作伙伴来构建一种新型存储芯片,能够以更快的速度将大量数据一次性传输到图形处理单元,其大学研究实验室致力于研究的 Kim Joung-ho表示。自 2010 年起与 SK Hynix 合作开发高带宽存储器。
SK 海力士以更加一致的投资来回应这些要求。
韩国科学技术院机械工程教授 Kim 表示:“这既体现了对新技术的承诺,也体现了在人工智能时代备受关注的产品上投入巨资的运气。”
花旗驻首尔半导体分析师Peter Lee表示,最初,由于需求低迷和技术困难,存储器行业对 HBM 的投资受到限制。但 Lee 表示,SK 海力士在早期更看好 HBM 的前景。
SK 海力士高管 Park 表示,该公司的 HBM 特别工作组起初并不认为人工智能是新型存储芯片的主要用途。他说,最重要的任务是克服“内存墙”,指的是科技行业认为计算性能受到内存芯片速度限制的看法。
Park 表示:“我们相信,用于高性能计算的高带宽内存最终将导致相关应用程序的出现。” “而 HBM 确实为后来的加密货币和人工智能繁荣奠定了基础。”
SK 海力士 4 月份表示,预计 2023 年 HBM 收入将增长 50% 以上。花旗分析师表示,全球 DRAM 收入中来自人工智能需求的部分预计将从今年的 16% 增长到 2025 年的 41%。
SK 海力士并不能保证保持其早期的领先地位。
三星副总裁兼内存营销主管Harry Yoon在接受书面采访时表示,作为全球最大的内存芯片制造商,三星正准备在今年晚些时候推出下一代型号,并致力于扩大与客户的合作伙伴关系。该公司计划积极投资,到 2024 年将 HBM 产量从今年的水平增加一倍。
据市场研究公司 TrendForce 称,三星今年的市场份额预计将追赶 SK 海力士,两者市场份额均为 46% 至 49%。TrendForce 表示,美国美光预计将占据约 5% 的份额。美光科技表示有信心能够赶上两个韩国竞争对手。
Nvidia 最近推出了一款用于加速计算和人工智能的新处理器,预计将于 2024 年第二季度上市,并配备“世界上最快的内存”。它没有提到供应商的名字。
行业专家表示,最能满足 Nvidia 要求的公司是 SK Hynix,该公司本月早些时候表示,已开始向客户提供下一代 HBM 样品。
SK 海力士没有透露在高带宽内存方面投资了多少,也没有透露芯片的销售数据,但它表示,包括 HBM 在内的类别目前占 DRAM 总销售额的 20% 以上,高于去年的百分比仅为个位数。
Park表示,SK海力士在开发速度、质量和量产准备方面仍保持优势。“基于这些优势,该公司打算继续领先市场,”他说。
👇👇 点击文末【阅读原文】,可查看原文链接!
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3506期内容,欢迎关注。
推荐阅读
半导体行业观察
『半导体第一垂直媒体』
实时 专业 原创 深度
识别二维码,回复下方关键词,阅读更多
晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装
回复 投稿,看《如何成为“半导体行业观察”的一员 》
回复 搜索,还能轻松找到其他你感兴趣的文章!
微信扫码关注该文公众号作者