当GPU算力以每季度翻番的速度狂飙,当HBM成为AI服务器的“硬通货”,一块被严重低估的核心部件——面向AI工作负载优化的SSD,正站在产业矛盾的中心点。而当前市场的主流存储方案HDD与HBM,各自存在难以突破的发展掣肘,正是这一局面的关键成因。 先看HBM,随着GPU算力的爆发式增长,本质上是“数据处理能力”的指数级提升。从单卡到集群,从百亿参数到万亿参数,GPU对数据的“吞吐需求”只会越来越苛刻:不仅要快,还要稳定、无延迟,避免出现“算力空转”。而这种需求,恰好戳中了现有存储方案的痛点。其次,HBM成为“硬通货”,是市场对“高带宽存储”的被动选择。HBM的核心优势是“近显存级的带宽”,能最大程度匹配GPU的高速计算节奏,减少数据搬运的延迟——这也是它能成为AI服务器标配的关键。但HBM的成本逻辑与“规模化部署”相悖,过度依赖HBM会直接推高AI服务器的整体成本,让多数企业望而却步。 再看另一主流存储方案HDD。作为长期占据存储市场的“容量担当”,HDD的优势是低成本、大容量,能满足数据归档、冷存储等场景的需求。但在AI算力狂飙的当下,HDD的性能短板已成为“致命缺陷”:其机械结构决定了读写速度和延迟表现,完全跟不上GPU的算力释放节奏。AI训练中,数据需要从存储介质快速加载到GPU显存,而HDD的慢响应会导致“数据等待算力”。 由此可见,产业矛盾的核心已经非常清晰:GPU的“无限算力需求”与现有存储方案的“有限适配能力”形成了尖锐对立。HBM能解决“快”的问题,但解决不了“多”和“省”;HDD能解决“多”和“省”的问题,但解决不了“快”;而AI产业的持续发展,恰恰需要一种能同时平衡“高速响应、海量容量、合理成本”的存储方案。 SSD的价值,正在这种矛盾中被凸显出来。 那么,面向AI的SSD需要解决哪些问题? 业内人士向半导体产业纵横表示,面向AI的SSD是为大模型训练/推理量身定制的“高性能+高并发+低延迟+高耐久+大容量”的专用存储,而大容量SSD只是“容量大”的通用存储——容量只是SSD的必要条件,绝非充分条件。以下是该类SSD的一些核心特点: 打破CPU中转瓶颈,让高端GPU算力不闲置。GPU的核心价值在于算力输出,但这份输出能否落地,始终受限于数据传输与存储的协同能力。传统架构中GPU取数需经“SSD→CPU→内存→GPU”多环节跳转,CPU带宽瓶颈成为产业痛点。而面向AI场景的SSD的核心突破,正是在半导体架构层面实现“直连协同”,通过接口技术,让GPU跳过CPU,直接与SSD建立数据通道。这一改变绝非简单提速——数据搬运时间大幅缩短,GPU不再因等待数据“空转”,彻底破解高端GPU算力闲置的资源浪费难题,让核心芯片的性能优势真正落地。 打破GPU显存高端壁垒。如今万亿参数模型的训练与推理,需要TB级显存支撑,若单纯依靠HBM显存扩容,不仅会让GPU成本翻倍,还会受限于半导体制造工艺,让多数企业难以承担高端GPU集群的投入。面向AI应用的SSD被设计为介于HBM显存与传统存储之间的“类内存层”,本质是半导体存储器件与计算器件的协同创新,既能作为GPU的扩展显存,又能承担数据缓存功能。该技术并非替代HBM/DRAM,而是将存储层从内存扩展到SSD,形成“DRAM+HBM+SSD”的分级存储体系,优化整体效率。 内置DSP/ASIC,支持近存计算。GPU既要承担核心矩阵运算这类高端任务,还要处理数据预处理、优化器状态更新等简单计算,导致宝贵的算力被浪费。而为了AI场景优化SSD内置DSP/ASIC计算单元,支持近存计算技术,可将这些简单计算任务从GPU卸载到SSD本地执行,实现半导体器件的“分工优化”。这种协同模式,让GPU彻底摆脱冗余计算的束缚,专注于核心算力输出,不仅减少了数据搬运带来的延迟与损耗,更提升了整个半导体系统的算力密度。 业内人士向半导体产业纵横表示:为了AI场景优化的SSD第一次让存储本质性融入算力体系,实现数据直接参与AI训练与推理,完美匹配GPU高频并发的特点,最终提升性能、降低整体TCO(总拥有成本)。 据悉,由于AI服务器推动存储需求爆发,HDD持续大缺货,交付期限已延长至2年以上,云厂商“紧急加单”,采购大容量企业级SSD,部分原厂2026年QLC NAND Flash产能也被提前抢购一空。供应链人士透露,各家云厂商只能排队等待,由于HDD供应集中,并采取“依订单生产”模式,缺货持续加剧,有云厂商与供应商签定2026年长约,提前锁定HDD与企业级SSD供货来源。 因此,面向AI时代的SSD已成为存储巨头、GPU龙头与云厂商的必争赛道,全球头部存储厂商纷纷入局,并分化出两条差异化的技术路线。 第一条路线,是与GPU龙头英伟达深度绑定,针对性开发适配AI/数据中心场景的SSD产品,核心目标是解决GPU受限于HBM容量的行业痛点,旨在应对计算负载从“计算密集型”向“数据密集型”的转变,通过将更多数据置于计算资源附近,扩大GPU可用显存空间,进而支持更大数据集的访问、显著提升GPU利用率。 在这一技术方向下,铠侠与SK海力士已相继公布合作进展。2026年3月,铠侠宣布成功研发全新品类的超高IOPSSSD,这款产品正是基于英伟达“Storage-Next”计划的需求打造,预计将于2026年末向特定用户提供评估样品。无独有偶,SK海力士早在2025年12月便宣布与英伟达合作研发AI核心SSD,该项目在英伟达内部沿用“StorageNext”代号,在SK海力士内部则被命名为“AI-NP”(AINANDPerformance),隶属于“AINFamily”产品线。其核心逻辑是通过重构NAND与控制器架构,打破AI运算与存储间的数据传输瓶颈,满足大规模AI推演对数据吞吐的极致需求。据规划,SK海力士这款产品将采用PCIeGen6接口,计划于2026年底推出初期样品,其IOPS性能可达2500万次/秒,实现了8-10倍的跨越式提升。 第二条路线,则是聚焦容量提升、性能突破,打造高性能、大容量的SSD产品。以三星、华为、美光为代表的厂商均在此赛道加速布局。2025年10月,三星明确产品路线图:256TBPCIe6.0SSD将于2026年正式推出,512TB版本则计划在2027年落地;同时,兼容CXL3.1与PCIe6.0标准的CMM-D存储产品也即将面市,性能实现翻倍升级。 华为则在2025年8月抢先发布面向AI时代的高端SSD矩阵,包含高性能系列HUAWEIOceanDiskEX560、SP560,以及大容量系列HUAWEIOceanDiskLC560,其中单盘最高容量达245TB。该系列产品的核心价值在于打破传统AI存储器的性能与容量瓶颈,全面提升AI训练效率与推理体验。 同期,美光也于2025年8月在爱达荷州博伊西发布三款基于G9NAND技术的数据中心级SSD,涵盖旗舰级9650、高密度6600ION及主流7600三大系列。凭借全球首发的PCIe6.0技术、业界领先的容量密度与超低延迟表现,为AI算力基础设施提供核心支撑。从落地进度来看,美光9650与7600系列已推出E3.S/E1.S形态样品,6600ION系列122TB版本已于2025年第四季度量产,245TB高容量版本则计划在2026年上半年正式上市。 从上述头部厂商的技术布局与产品路线图不难看出,2026年正成为AI用SSD技术落地与商业化应用的关键元年。 业内人士向半导体产业纵横表示,当前AI用SSD已在三大核心AI场景中展现出强劲的实战价值: 第一个场景,是AI推理系统。无论是ChatGPT这类对话机器人,还是工作中的AI功能,都需要高频访问KV缓存来应对百万级并发请求。SSD的低延迟的高响应速度,让推理更高效,而超大容量则赋予AI“长久记忆”,避免重复计算,大幅降低成本; 第二个场景,是向量数据库实时检索。向量数据库是AI语义检索、推荐系统的核心,对吞吐量和响应时间要求极高。该SSD的高并发、低延迟特性,让实时检索效率翻倍。 第三个场景,是AI数据一体机。在海量数据训练场景中,AI数据一体机需要兼顾性能与成本。SSD通过性能优化与TCO平衡,让数据分层存储更合理,既保证训练速度,又降低硬件投入成本,成为企业部署AI训练平台的优选方案。 过去长期把资源优先投向DRAM的三星和SK海力士,如今正积极调整战略布局,应对AI服务器需求激增带来的存储芯片市场新变化。 三星电子在2024年9月就已启动280层V9 NAND量产,但当时只在平泽园区部署了初期量产线,月产能仅约15000片晶圆。如今,随着AI产业推动存储需求快速上升,三星正在加速扩大V9产能,并将重点放在中国西安的X2产线。据悉,三星电子位于中国西安的NAND晶圆厂近期成功完成工艺制程升级,实现了236层堆叠的第八代V-NAND (V8 NAND)的量产。 本次制程升级始于2024年,旨在改造原有的V6 (128L) NAND,以提升产品性能与生产效率,增强产能竞争力。在量产V8 NAND后,三星西安晶圆厂的下一步瞄准了286层堆叠的V9 NAND,相关生产线将位于X2工厂,计划在2026年内完成过渡并实现量产。 SK海力士也展现出强劲的扩产势头。该公司计划在今年第二季度启动321层第9代NAND的转换投资,目标是在清州M15实现月产约3万片晶圆的V9产能。与目前约2万片晶圆的水平相比,这次扩产力度相当大。 铠侠表示,计划通过扩大其四日市工厂和北上工厂的生产线,到2029财年将产能较2024财年提高一倍,以满足AI数据中心对NAND闪存日益增长的需求。此外,铠侠与闪迪正计划联合在美国兴建NAND晶圆厂。 技术迭代的核心不仅在于架构与标准,更在于底层存储介质的优化,铠侠CEO柳茂知表示,QLC SSD是AI行业最好的选择。尽管从SLC到MLC,再到TLC,最终到QLC,SSD的性能一直在下降,但随着技术的演变,2025年QLC SSD的速度已经比2017年的TLC SSD快很多了。如今QLC SSD的顺序读写速度可达7000MB/s左右,性能十分强大,能够满足AI大模型数据存储和调用的要求。 QLC(Quad-Level Cell)颗粒之所以能成为SSD的主流选择,正是源于其对AI场景核心诉求的精准匹配。 第一、读取优化特性:QLC NAND针对读取密集型工作负载进行了优化,而AI推理服务器主要负责分析和处理大量数据,访问模式以读取为主,写入频率相对较低。 第二、高密度优势:QLC NAND具有更高存储密度,每单位成本低于TLC NAND,使其成为AI服务器、云计算和大数据分析等应用的理想选择。 第三、能效提升:Solidigm的研究表明,QLC固态硬盘的能效比TLC固态硬盘高19.5%,比混合TLC固态硬盘和机械硬盘高79.5%,这对大规模部署的AI推理服务器至关重要。 英特尔的研究进一步证实,QLC NAND固态盘会让PCIe4.0总线的读取能力达到饱和,而且具有接近TLC的延迟和服务质量(QoS)。正因如此,这种固态盘的响应速度相比机械硬盘高出好几个数量级。01 HBM、HDD,均不是最优解
02 AI场景SSD凭什么“火”
03 被抢注的SSD,2026年迎来放量
04 面向AI应用的SSD,进入产业狂欢
此内容为平台原创,著作权归平台所有。未经允许不得转载,如需转载请联系平台。
