人工智能优化的内存和存储已成为推动系统性能的战略资产,能够赋能人工智能工作负载和基础设施,从而创造实际价值。美光科技公司已于2026年第一季度开始批量出货其HBM4 36GB 12H内存,该产品专为NVIDIA Vera Rubin平台设计。凭借HBM4,美光实现了超过11Gbps的引脚速度,带宽超过2.8TB,相比其HBM3E,带宽提升了2.3倍,能效提升超过20%。

为了进一步提升HBM立方体的容量,美光科技已展示了其先进的封装技术,可将16颗HBM芯片堆叠在一起,并已向客户交付了HBM4 48GB 16H的样品。与HBM4 36GB 12H产品相比,这一里程碑式的改进使每颗HBM芯片的容量提升了33% 。
“下一代人工智能将由整个生态系统通过联合工程创新开发的紧密集成平台定义。我们与英伟达的紧密合作确保了计算和内存从一开始就能协同扩展,”美光科技执行副总裁兼首席商务官 Sumit Sadana 表示。“这一切的核心是美光的 HBM4,它是人工智能的引擎,可提供前所未有的带宽、容量和能效。随着 HBM4 36GB 12H 的推出,以及业界首款 SOCAMM2 和第六代 SSD 的量产,美光的内存和存储构成了释放下一代人工智能全部潜力的核心基础。”
Micron SOCAMM2 专为 NVIDIA Vera Rubin NVL72 系统和独立NVIDIA Vera CPU平台而设计,每个 CPU 可实现高达 2TB 的内存和 1.2 TB/s 的带宽。
美光是首家量产 PCIe Gen6 数据中心级 SSD 的公司。美光 9650 针对能效和液冷环境进行了优化,采用 NVIDIA BlueField-4 STX 参考架构,可为 AI 训练和推理工作负载提供高速、低延迟的数据访问,支持高达 28 GB/s 的顺序读取吞吐量和 550 万随机读取 IOPS。美光 7600 和 9550 SSD 为客户提供 PCIe Gen5 SSD,从而扩展了他们的架构设计选择。
目前,全球存储三巨头三星、SK 海力士、美光正全力加速英伟达 HBM4 供应,以适配其新一代 Vera Rubin AI 平台的算力需求。
据悉,三星电子的HBM4已经通过了英伟达和AMD的最终品质测试,并已开始量产。事实上,三星过去几年在AI芯片所需的HBM业务上一直进展不顺,不仅HBM3E迟迟未通过英伟达的认证,在HBM市场的份额也一直被SK海力士远远甩在身后。直到去年9月,三星HBM3E才正式通过英伟达认证。如今,三星之所以能够在HBM4上脱颖而出,最关键的原因在于其很早就将更多的研发投入到了HBM4的研发当中,并提供了更高的技术指标。
报道指出,三星HBM4传输速率达到11Gbps以上,明显高于JEDEC标准,主要是为了满足英伟达的核心需求。今年1月初的消息也显示,三星HBM4在博通主导谷歌第八代AI加速器“TPU v8”技术性测试中,运行速度创下了历史新高纪录的11Gbps,表现居三大内存厂商之首。并且,三星HBM4在散热管理方面的评分,也优于其他竞争对手,而散热管理是整合HBM时长期面临的挑战。此外,三星HBM4还采用了4nm的逻辑基础芯片( logic base die),并由自家晶圆代工部门供应,使得三星在交期掌控上更具优势,能更有效保障对英伟达的供货。相比之下,SK海力士与美光的HBM4的逻辑芯粒则规划由台积电代工。
3月10日,韩国Citrini7分析师Jukan在X平台上发文表示,据半导体行业消息人士透露,SK海力士将于近期向英伟达提交HBM4最终样品。若通过英伟达资质认证测试,最快本月内有望收到量产采购订单。这批样品是SK海力士自去年第四季度以来历经多轮设计修订的成果,目标是满足英伟达11.7 Gb/s最高数据传输速率的要求。据悉,SK海力士向英伟达提交的HBM4最终样品,已历经多轮优化迭代。自去年10月底启动认证测试以来,双方曾发现Rubin GPU特定电路与HBM4存在兼容性问题。SK海力士通过强化电路特性、缩小堆叠芯片层间间距等方式提升芯片速度,英伟达亦在多个层面提供协助,目前问题已得到解决。
此次认证的核心不仅在于“通过与否”,还涉及产品分级。英伟达将HBM产品分为Bin 1(高端)与Bin 2两个性能档位。SK海力士面临的挑战是在最终样品中展示技术实力,提升供货中达到高端档位Bin 1的比例。
过去数年,SK海力士凭借与英伟达的深度绑定,在AI加速器HBM市场占据逾90%份额,稳居英伟达核心供应商地位。然而,随着HBM4步入商业化阶段,这一格局正面临挑战。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。
