
AI竞赛重心正从算力快速转向内存容量与推理成本。 随着云端推理需求暴增,高速内存(HBM、GDDR7)成为新主战场,AI的内存黑洞效应也开始浮现。专家估计,2026年云端高速记忆体用量将上看3EB(艾字节),若再把高速内存对晶圆产能的折算耗用纳入,AI等效吞噬的全球DRAM用量,可能逼近2成,势必挤压PC、手机与传统服务器等应用。
为什么会出现这种情况呢?业内人士认为主要原因是推理需要保存大量中间状态资料,使单一用户或单一AI代理的内存需求倍数放大,并把HBM、GDDR7推向新的供需拐点。若以100万token(模型运算与记忆的最小单位)的长上下文情境为例,即便采用FP8等较省容量的格式,推理过程仍可能需要约60GB高速DRAM保存中间状态;若采用FP16,需求可能翻倍到100GB以上。 相较目前常见的8K token约1GB,等同出现约60倍的跳增,形成AI扩张的隐形成本。
以Google(Gemini)、AWS(Bedrock)与OpenAI(ChatGPT)等三大云端平台推估,2026年推理端的即时内存需求合计约750PB(拍字节),主要由HBM与GDDR7承担。这还只是理论数据,实际落地出于备份、安全等的考虑,硬件安装量可能倍增,使有效需求推升至约1.5EB。此外,再加上Meta、Apple的私有云与中国市场约800PB,及下一代模型训练所需的检查点与参数储存约500PB,业界预估2026年云端GPU高速内存总需求上看3.0EB。
值得注意的是,3.0EB并不等于只消耗3.0EB的DRAM产能,高速内存更吃晶圆。目前业界常用的折算方式:1GB HBM约等效消耗4GB标准DRAM产能、1GB GDDR7约等效1.7GB。以2026年全球DRAM产能约40EB推估,AI等效用量近2成;而DRAM产能年增仅约1成至1.5成,势将排挤PC、手机与服务器DDR5等标准型DRAM供给,缺货与价格上行压力同步升温。
TrendForce最新调查显示,近期因存储器市况呈现供不应求,带动一般型DRAM价格急速攀升,尽管HBM3e受惠于GPU、ASIC订单同步上修,价格也随之走扬,但是预期未来一年HBM3e和DDR5的平均销售价格(ASP)差距仍将明显收敛。
TrendForce表示,2025年5月英伟达率先与三大DRAM供应商展开2026年采购协商,当时在买方主导定价的情况下,2026年HBM3e的初始采购单价显著低于2025年水平。然而,存储器市场供需情况于2025年第三季开始快速反转,由于AI相关的Server布局需求优于预期,各大云端服务供应商(CSP)扩大Server DDR5备货,同时拟定2026-2027年的采购计划,形成市场缺货格局,故DRAM供应商大幅提高产品售价。
TrendForce指出,2025年第四季Server DDR5合约价季增幅度已远超市场预期,其晶圆获利也将转强,与HBM3e的价差将快速收敛。HBM3e价格原高出Server DDR5四至五倍,预期至2026年末,差距将缩小为一至二倍。另一方面,随着Conventional DRAM获利逐步上升,部分供应商产能开始倾向DDR5,给予HBM3e更大涨价空间。在GPU与ASIC需求上调后,主要买家皆追加HBM3e采购以因应来年的AI系统建设。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。
