据悉,下一代低功耗内存模块“SOCAMM”市场全面开启,英伟达计划今年为其 AI 产品部署 60~80 万个 SOCAMM 内存模块。
该产品被称为“第二代 HBM”。随着 SOCAMM 在 AI 服务器和 PC 中的应用不断增长,SOCAMM 的大规模出货预计将对内存和 PCB 电路板市场产生积极影响。
知情人士表示,“英伟达正在与内存和电路板行业分享 SOCAMM 的部署量(60~80 万片),该模块将应用于其 AI 产品。”“内存和 PCB 电路板行业都在为订单和供货做准备。”
SOCAMM 是一种专注于低功耗的 DRAM 内存模块。这也是 NVIDIA 正在推广的自有标准产品,通过捆绑 LPDDR DRAM 来加强 AI 运算。与现有的笔记本电脑 DRAM 模块(LPCAMM)相比,其 I/O 速度提升,数据传输速度加快,且结构紧凑,更易于更换和扩展。
与美光此前生产的服务器 DDR 模块“RDIMM”相比,SOCAMM 的尺寸和功耗减少了三分之一,带宽增加了 2.5 倍。NVIDIA 计划将 SOCAMM 率先应用于其 AI 服务器产品和 AI PC(工作站)产品。
首批搭载 SOCAMM 内存的产品是最新的 GB300 Blackwell 平台,这已经暗示了英伟达打算为其众多 AI 产品转向新型内存的意图。
值得一提的是,英伟达今年 5 月在“GTC 2025”上发布的个人 AI 超级计算机“DGX Spark”也采用了 SOCAMM 模块,因此其需求预计还会扩展到 PC 市场。
尽管最高 80 万的目标远低于其内存合作伙伴今年的 HBM 出货量,但预计其规模明年将开始扩大,尤其是在 SOCAMM 2 内存上市之后。
目前美光是英伟达 SOCAMM 模块的唯一制造商,而三星和 SK 海力士据称也正在与英伟达接洽,希望为其生产 SOCAMM 模块。
预计SOCAMM的出现将在整个半导体行业产生连锁反应,影响到三星电子、SK海力士等内存厂商,以及Simmtech和TLB等基板公司。
目前,SOCAMM内存技术适用于需要高性能内存支持的场景,如AI计算、高性能计算、数据中心等。由于其可拆卸升级的特点,SOCAMM内存技术还适用于需要频繁更新硬件设备的领域,如游戏、图形设计、虚拟现实等。
在算力需求指数级增长的今天,存储技术正经历着从"被动容器"到"主动参与者"的范式转变。SOCAMM的诞生,标志着内存模块首次实现了对计算需求的动态响应能力。其同步架构通过统一时钟信号实现数据传输的精准编排,将带宽提升至传统DDR5的2.5倍,而适应性调节机制则让模块在低负载时自动进入节能模式,功耗仅为同类产品的三分之一。这种"智能节流"特性,使得SOCAMM在AI训练场景中能根据模型复杂度实时调整资源分配,避免了传统内存"大马拉小车"的效率损耗。
因此,SOCAMM的市场需求将持续增长,特别是在B2B服务器市场和快速发展的终端设备AI领域。
尽管SOCAMM的发展前景广阔,但仍面临一些挑战。
例如,随着半导体行业的快速发展,市场上存在多种不同的内存技术和标准。
SOCAMM作为新一代内存技术,需要与其他硬件和软件系统保持良好的兼容性,以确保其能够顺利应用于各种设备和场景中。
然而,市场碎片化可能导致不同技术标准之间的兼容性挑战,增加了SOCAMM推广和应用的难度。此外,内存技术的标准化是推动其广泛应用的关键。
目前,SOCAMM正处于技术奇点与商业博弈的叠加态。
尽管JEDEC已推动LPCAMM2成为开放标准,但SOCAMM的私有属性使其在生态适配上处于被动。英伟达需投入大量资源说服第三方厂商(如AMD、英特尔)加入其技术联盟,否则SOCAMM将长期局限于自家GPU生态。这种“封闭性代价”在AI芯片领域尤为明显——例如,Meta等超大规模云计算厂商倾向于采用兼容性更强的CXL或HBM方案,而非绑定单一供应商的SOCAMM。若英伟达无法在2027年前完成生态闭环,可能错失AI硬件迭代的黄金窗口期。
SOCAMM的颠覆性不仅在于技术参数,更在于其揭示了AI时代硬件创新的深层逻辑:性能突破必须与生态控制力同步推进。然而,英伟达的“标准突围”之路注定充满荆棘——既有传统势力的反制,也有技术落地的现实阻力。若SOCAMM能克服量产难关并构建开放生态,它或将成为AI硬件史上的里程碑;反之,则可能沦为又一个“技术乌托邦”的注脚。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。