ISSCC 2026前瞻:两巨头的内存对决

来源:半导体产业纵横发布时间:2025-11-27 18:16
存储
三星电子
SK海力士
生成海报
内存竞赛日趋激烈,韩国芯片巨头正积极研发新技术以满足人工智能领域日益增长的需求。

据报道,三星电子和SK海力士将在2026年国际固态电路大会(ISSCC)上展示一系列新一代DRAM解决方案。SK海力士将推出其最新的GDDR7和LPDDR6,用于图形和移动应用;而三星电子则将发布HBM4。

SK海力士发布新一代GDDR7和LPDDR6内存

报告指出,SK海力士推出了单引脚带宽为48 Gb/s、容量为24 Gb的GDDR7显存。该芯片采用对称双通道设计,面向GPU、AI边缘推理和游戏等高带宽应用。

此次SK海力士计划推出的GDDR7 DRAM的非标准规格是其关注的焦点。尽管业界此前预期下一代GDDR7的峰值速度约为32-37 Gbps,但SK海力士将在ISSCC会议上发表论文,展示其48 Gbps的运行速度和24 Gb的密度,这展示了SK海力士在技术上的领先优势。

与目前的 28 Gbps GDDR7 相比,传输速度提升了 70% 以上。每个芯片的带宽达到 192 GB/s,高于现有 28 Gbps 产品约 112 GB/s 的带宽——这是一项技术突破,从根本上重塑了图形 DRAM 的性能范式。 

SK海力士首次发布了 14.4 Gb/s 的 LPDDR6 内存。与 LPDDR5(9.6 Gb/s)相比,LPDDR6 的带宽大幅提升,定位为面向高性能智能手机、AI PC 和具备生成式 AI 功能的边缘设备的移动 DRAM 解决方案。

三星发布用于人工智能加速器的下一代HBM4

三星电子发布了其新一代HBM4内存,容量高达36GB,带宽达3.3TB/s。HBM4采用1c DRAM工艺制造,并改进了其TSV(硅通孔)架构,以降低通道间信号延迟,从而提供未来AI加速器所需的高带宽和低功耗数据传输。

三星的HBM4相比前几代产品,带宽有了显著提升。更重要的是,它满足了领先的GPU和AI ASIC制造商对3TB/s以上吞吐量的要求,预计将从明年开始在AI服务器加速器中得到广泛应用。

三星目前正与英伟达就明年HBM4的价格进行谈判。消息人士表示,英伟达在与SK海力士敲定HBM4供应合同仅一周后,便邀请三星电子参与谈判。报道还指出,由于HBM4需求超过供应,且没有强烈的降价动力,三星电子内部的目标是使其12层HBM4内存的价格与SK海力士的价格持平。

巨头联手,要把GPU核心封装到HBM上

关于存储产品另一个值得关注的技术进展是,报道称英伟达携手 Meta、三星电子、SK 海力士等科技巨头,为提升 AI 性能,正探索将 GPU 核心集成至下一代 HBM(高带宽存储器)的技术方案。

据多位业内人士透露,Meta 和英伟达正在积极探讨此方案,并已开始与三星电子、SK 海力士进行合作洽谈。该技术旨在打破传统计算架构中内存与处理器分离的模式,通过在 HBM 的基底裸片(Base Die)中植入 GPU 核心,实现计算与存储的深度融合。

HBM 作为一种通过垂直堆叠多个 DRAM 芯片实现的高性能存储器,专为处理人工智能(AI)所需的海量数据而设计,其最底层的基底裸片目前主要负责内存与外部设备间的通信。

即将于明年量产的 HBM4 已计划在基底裸片上集成控制器,以提升性能和效率。而此次讨论的“GPU 核心内嵌”方案,则是在此基础上更进一步的重大技术跨越,它将原本集中于主 GPU 的运算功能部分转移至 HBM 内部。

将 GPU 核心植入 HBM 的主要目的在于优化 AI 运算的效率,通过将运算单元与存储单元的物理距离缩至最短,可以显著减少数据传输延迟和随之产生的功耗,从而减轻主 GPU 的负担。

这种“存内计算”的思路,被视为突破当前 AI 性能瓶颈的关键路径之一,有助于构建更高效、更节能的 AI 硬件系统。要实现这一设想仍面临诸多技术挑战。首先,HBM 基底裸片受限于硅通孔(TSV)工艺,可用于容纳 GPU 核心的物理空间非常有限。

其次,GPU 运算核心是高功耗单元,会产生大量热量,因此如何有效解决供电和散热问题,防止过热成为性能瓶颈,是该技术能否落地的关键。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论