HBM,救了他们
来源:内容由半导体行业观察(ID:icbank)编译自businesskorea,谢谢。
由于参与云服务器业务的全球科技公司对人工智能芯片的需求不断升级,对人工智能芯片至关重要的高性能存储半导体的需求正在经历爆炸性增长。因此,人们对国内提供这些存储芯片的公司未来的业务前景抱有很高的期望。重点是三星电子和 SK 海力士将于明年推出的与高带宽内存 (HBM) 芯片相关的下一代产品。
市场研究公司TrendForce最近8月1日进行分析认为,随着北美和中国的云服务器提供商(CSP)对AI芯片相关技术的进一步验证,AI加速芯片市场的竞争将会加剧,有助于推动AI加速芯片市场的竞争,HBM 市场前景乐观。
三星和SK海力士目前在人工智能时代处于全球市场的前沿,其中HBM技术因其在DRAM中的应用而受到广泛关注。HBM 是一种高性能产品,可垂直堆叠多个 DRAM 芯片,并在专为 AI 处理而设计的图形处理单元 (GPU) 等设备中找到应用。
HBM 正在开发多代,即第一代 (HBM)、第二代 (HBM2)、第三代 (HBM2E)、第四代 (HBM3) 和第五代 (HBM3E)。每一代新芯片的带宽都会得到增强,从而实现更快的速度和更高的内存容量,使 HBM 成为人工智能相关任务的首选。
据TrendForce统计,谷歌、亚马逊、微软等涉足云服务器业务的全球科技巨头越来越多地采用HBM,其中HBM2E是其中的突出选择。值得注意的是,广泛应用于人工智能相关任务的 NVIDIA 的“A100”和“A800”以及 AMD 的“MI200”芯片均采用 HBM2E。三星和SK海力士目前都在向全球客户供应HBM2E,并在市场上占据主导地位。
微软在当地时间7月28日发布的年度报告中强调了其云业务中的一个新的风险因素,首次提到GPU短缺,并强调扩大AI GPU市场的必要性。微软表示,“数据中心的运营依赖于可预测的土地、能源、网络供应和服务器,包括图形处理单元(GPU)。”
TrendForce预计,SK海力士和三星的下一代产品,包括HBM3和HBM3E,将在明年主导相关芯片市场。目前,SK海力士是HBM3的全球唯一生产商,该产品被集成到NVIDIA领先的AI芯片“H100”中。
不过,随着NVIDIA计划在2025年推出下一代“GB100”芯片的消息传出,人们对韩国企业HBM3供应的担忧与日俱增。为了满足需求,三星和SK海力士预计将于明年第一季度发布HBM3E样品,并于2024年下半年开始量产。HBM3E采用10纳米范围内先进的第五代工艺技术。美国半导体公司美光近日宣布有意独立开发HBM3E,宣告进军SK海力士、三星主导的HBM市场,引发业界关注。不过,业界认为,美光在这一领域的技术能力想要追上SK海力士和三星并不容易。
此外,今年下半年以来成为服务器市场主力的核心内存DDR5(Double Data Rate 5)近期价格出现反弹,增强了三星和SK海力士“盈利扭亏为盈”的预期。。据TrendForce统计,7月份DDR5 8GB产品平均固定成交价格为15.30美元,较上月的14.84美元上涨3.13%。DDR5 16GB产品的价格涨幅更高,达到37.9%。因此,DDR5 8GB的价格自2021年12月以来一直从44.70美元持续下跌,但最近在时隔1年零6个月后出现反弹迹象。
HBM正在成为摇钱树,韩国巨头大举扩张
自去年 12 月以来,全球对称为 ChatGPT 的生成式人工智能的热潮迅速增加了对能够处理大规模数据的高性能 DRAM(也称为高带宽内存(HBM))的需求。
7月31日,据半导体行业人士透露,三星电子、SK海力士等韩国本土存储半导体企业正在推动HBM专用线的扩张。HBM,也称为“高性能 DRAM”,与传统 DRAM 相比,数据容量和速度提高了十倍以上。内存半导体公司通过垂直堆叠生产的 DRAM 晶圆并通过在芯片上钻孔的先进封装工艺将它们进行电气连接来完成 HBM。
两家公司计划在明年年底前投资超过2万亿韩元,使HBM生产线目前的产能增加一倍以上。SK海力士计划利用利川现有HBM生产基地后的清州工厂的闲置空间。三星电子正在考虑扩大位于忠清南道天安市的 HBM 核心生产线,该地区是设备解决方案部门下的先进封装团队的所在地。
尽管 DRAM 市场状况尚未改善,但由于 HBM 需求快速增长,三星和 SK 正在推动对万亿韩元单位的投资。市场研究公司 TrendForce 表示,以千兆字节 (GB) 为单位的 HBM 需求预计将激增 60%,从 2022 年的 1.81 亿 GB 增加到 2023 年的 2.9 亿 GB。与 2023年相比,预计 2024 年将再增加 30%。
由于像 ChatGPT 这样的生成式人工智能市场正在增长,需求正在迅速增长。生成式人工智能的核心是通过大规模数据学习来提高问题答案的准确性。图形处理单元(GPU)被选为能够同时快速学习大规模数据的芯片。存储数据供 GPU 处理的 DRAM 也很重要。据了解,最新的 HBM“HBM3”的总容量是最新 DRAM 产品 GDDR6 的 12 倍,带宽大约是最新的 DRAM 产品 GDDR6 的 13 倍。它类似于单车道道路(典型的 DRAM)和 13 车道高速公路 (HBM) 之间的区别,促进更顺畅的交通或数据流。
客户和 HBM 制造商通常会讨论产品开发一年多的时间并生产定制产品。Nvidia最近收到的来自SK海力士的HBM2E和HBM3也是1-2年前联合开发的产品。一位半导体行业官员报道称,“开发自己的生成式人工智能的主要公司也要求三星和SK共同生产HBM。”
HBM 正在解冻冻结的内存半导体市场。虽然三星和SK海力士尚未透露具体的HBM价格,但据悉最新第4代产品HBM3的价格约为最新传统DRAM的5-6倍。这就是为什么今年HBM出货量仅占DRAM总出货量的1.7%,但其销售额比例却达到了11%。
对于提高存储半导体公司的业绩也有积极的影响。SK海力士在7月26日举行的第二季度业绩发布会上解释说,“第二季度DRAM的平均售价(ASP)与上一季度相比‘以高个位数百分比’上涨”,并且“这是由于销售许多高附加值产品的影响。”
然而,要成为真正的“摇钱树”,有人指出,他们需要进一步提高HBM产量并降低生产成本。首都圈一所大学的半导体研究教授表示,“堆叠的 DRAM 越多,良率越低,成本越高”,“他们还必须克服‘生成式 AI 服务器’作为唯一需求来源的限制”。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3482期内容,欢迎关注。
推荐阅读
半导体行业观察
『半导体第一垂直媒体』
实时 专业 原创 深度
识别二维码,回复下方关键词,阅读更多
晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装
回复 投稿,看《如何成为“半导体行业观察”的一员 》
回复 搜索,还能轻松找到其他你感兴趣的文章!
微信扫码关注该文公众号作者