2026年HBM市场的关键:HBM4

来源:半导体产业纵横发布时间:2025-12-19 18:14
HBM
市场数据
生成海报
到2025年,HBM单位存储容量的价格将上涨21%。

全球规模最大的半导体存储器和存储技术盛会——未来存储大会(FMS)于2025年8月5日至7日(美国时间)在美国加利福尼亚州圣克拉拉举行。FMS内容包括主题演讲、专题讲座、展览等。近日,FMS官方网站已发布了主题演讲视频和全体会议报告的幻灯片。本文将提供市场研究公司TrendForce分析师Ellie Wang的演讲概要。

Ellie Wang的演讲题目是“人工智能增长将如何推动2025年后的人脑模型需求:塑造产品演进和动态”。Wang将人脑模型市场分为三个方面进行解释:“供应趋势”、“需求趋势”以及“平均售价(ASP)和收入趋势”。

SK海力士计划在2026年前大幅提升HBM产能

首先,来看一下供应趋势。构成 HBM 的硅芯片具有一种称为硅通孔 (TSV) 的特性。除 HBM 之外的其他 DRAM 硅芯片,例如 DDR 系统,则没有 TSV。因此,TrendForce 将带有 TSV 工艺的晶圆的加工能力(月产量)视为 HBM 的产能。

预计到2025年底,三大DRAM厂商的DRAM晶圆加工能力(月产量)分别为:三星电子65.5万片,SK海力士54.5万片,美光科技34万片。其中,采用TSV工艺(HBM)的晶圆加工能力(月产量)预计分别为:三星15万片,占DRAM总产量的23%;SK海力士15万片,占28%;美光5.5万片,占16%。

图片

主要DRAM供应商的DRAM晶圆加工能力(月产量,单位:千片)和TSV工艺晶圆加工能力(月产量,单位:千片)。所有数据截至年底。来源:2025年FMS会议论文集,TrendForce

预计到2026年底,三大DRAM厂商的DRAM晶圆加工能力(月产量)分别为:三星67万片,同比增长1.5万片;SK海力士 60万片,同比增长5.5万片;美光36万片,同比增长2万片。其中,SK海力士的产能增长尤为显著。

预计到2026年底,三星的TSV工艺(HBM)晶圆加工能力(月产量)将与去年持平,为15万片;SK海力士的产能将同比增长5万片,达到20万片;美光的产能将同比增长4.5万片,达到10万片。尽管SK海力士和美光都在积极扩张产能,但三星的扩张步伐却显得较为谨慎,这一点值得关注。

仔细分析可知,SK海力士DRAM产能增幅的90%以上将用于HBM。美光HBM产能增幅(4.5万片晶圆)甚至超过了其DRAM整体产能增幅(2万片晶圆),这造成了一种“不寻常”的局面。这表明该公司正在调整生产线配置,优先生产HBM。

当前,面向高端大规模算力场景的GPU(即标准 AI 处理器),普遍采用HBM 模块与主芯片共封装技术路线;其产品形态以 “GPU 芯片 + HBM 内存模块” 集成方案对外交付。HBM的核心应用群体,聚焦于GPU厂商及 AI 处理器(模块)厂商两大阵营。

DRAM行业共识显示,HBM的核心需求方为NVIDIA与AMD两大GPU厂商,其中NVIDIA是商用数据中心AI加速芯片的领先供应商,AMD亦为HBM的主要采购方。演讲者展示了两家企业数据中心级AI加速芯片及其配套HBM规格的公开季度路线图,涵盖DRAM堆叠层数、单模块容量、芯片搭载模块数量及总内存容量等关键指标。

2024年上半年,NVIDIA数据中心AI加速芯片的HBM总容量区间将达 80GB—144GB,标配HBM3E 世代模块,单模块容量为16GB 或24GB,均基于 8 层DRAM芯片堆叠工艺实现。到 2025 年下半年,HBM3E 世代将推出 36GB 规格的升级模块,采用8层 ×4.5GB DRAM 裸片的工艺方案;搭载该模块的 AI 加速芯片总内存容量上限将达 288GB,较 2024 年上半年的 144GB 上限实现翻倍。

2026年,搭载 HBM4 世代模块的 AI 加速芯片将正式量产出货。相较于 HBM3E,HBM4 的 DRAM 堆叠层数仍为 8 层,单模块容量升级至 48GB(8 层 ×6GB 裸片),同时数据传输速率较 HBM3E 提升超 50%,成为新一代 AI 芯片的核心性能增量点。

图片

NVIDIA 和 AMD AI 芯片及 HBM 规格路线图(2024 年第一季度至 2026 年第四季度)。来源:2025 年 FMS 会议论文集,TrendForce

2024年上半年,AMD AI芯片搭载的HBM内存方案为:128GB(HBM2E,16GB 单模块 ×8 层堆叠)与192GB(HBM3,24GB 单模块 ×8 层堆叠);2024年下半年单卡升级为288GB HBM3E(36GB 单模块 ×8 层堆叠)。2025年延续288GB HBM3E配置,进一步优化带宽至8TB/s。2026年将升级为432GB HBM4(单模块容量提升,配合12 层堆叠),内存带宽达19.6TB/s,满足大规模AI训练与分布式推理需求。

到2025年,HBM单位存储容量的价格将上涨21%

平均售价(ASP)是指HBM模块每千兆比特的价格。HBM价格谈判每年进行一次。2022年的平均售价为1.40美元,2023年略微下降至1.38美元,2024年回升至1.49美元。该年的价格上涨归因于HBM3E一代产品出货率的提高。

图片

平均售价 (ASP) 趋势 (2022-2025)。来源:2025 年 FMS 会议论文集,TrendForce

预计到2025年,平均售价将大幅上涨至1.80美元。随着12 层HBM3E芯片开始量产,该芯片的比例将进一步增加,从而推高价格。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论