铜缆见顶,英伟达全面拥抱光模块

来源:半导体产业纵横发布时间:2026-04-07 17:56
英伟达
硅片
生成海报
GPU巨头转向光互联扩容,已是必然选择。

如果你觉得英伟达GB200机架系统已经足够庞大,那CEO黄仁勋的布局才刚刚开始。在上个月的GTC大会上,这家全球市值最高的芯片企业公布了一项重磅计划:到2028年,将利用光子互联技术,把超过1000颗GPU集成到一套超大规模系统中。

英伟达也没有坐等供应链成熟。过去一个月里,这家GPU巨头已向Marvell、Coherent、Lumentum等专注于光通信与互联技术的企业投入数十亿美元,为这类系统的大规模部署做好准备。

“对于我们生态中的所有伙伴来说,我们需要更多的算力容量,”黄仁勋在GTC主题演讲中表示,“我们需要更多铜互联容量,需要更多光互联容量,需要更多共封装光学(CPO)容量。这也是我们与各方合作,为这一量级的增长打下基础的原因。”

然而,英伟达走到这一步的历程,其实早在更早之前就已开启。事实上,当OpenAI在2022年底向世界推出ChatGPT时,英伟达就已经意识到自己面临一个难题。

当时,英伟达性能最强的系统仅支持8颗GPU,而推动AI爆发的大模型,却需要数千颗GPU才能完成训练。英伟达需要更大的系统,或者至少是更快的网络,能够高效地将任务分发到数十颗芯片上。

我们最早在2023年英伟达的Grace Hopper超级芯片上看到了这一方向的尝试,但直到2024年初,完整的布局才浮出水面。同年GTC上发布的Grace Blackwell NVL72是一台功耗高达120千瓦的巨型机器,它通过搭载长达数米线缆的铜质背板,让36个节点、72颗GPU协同工作,如同一台巨型AI加速器。

英伟达网络高级副总裁吉拉德·谢纳向《The Register》表示,铜材是当时最顺理成章的选择。

“如果能用,铜就是最好的连接方式,”他说,“成本极低、几乎不耗电、可靠性极高,也没有有源器件。”

但铜互联并非完美。在1.8TB/s的速率下,线缆只能延伸数英尺,信号就会因GPU之间的通信而衰减。如果你曾好奇NVL72的NVSwitch为何都放在机架中央,原因就是线缆长度限制极短。铜材有限的传输距离,也迫使英伟达必须在单个机架内塞进尽可能多的GPU。

两年后的今天,英伟达正快速逼近铜互联的物理极限。如果想要搭建规模更大的GPU系统,就必须转向光互联。

可插拔光模块的难题

当黄仁勋首次展示代号Oberon的NVL72机架时,业界唯一商用可行的GPU光互联方案,只有可插拔光模块。

这类模块大小接近一包口香糖,集成了激光器、重定时器、数字信号处理单元,负责将电信号转为光信号,再转回电信号。

可插拔模块在数据中心网络中早已普及,但将其用于NVLink这类大规模计算架构,却存在一系列问题。

要达到1.8TB/s带宽,每颗Blackwell GPU需要18个800Gbps可插拔模块:加速器端9个,交换机端9个。单个模块功耗仅10–15瓦,但72颗GPU规模下,总功耗会迅速飙升。

正如黄仁勋在2024年GTC主题演讲中指出,光互联方案会额外增加约2万瓦功耗。

但自Oberon机架发布以来,行业发生了巨大变化。共封装光学(CPO) 技术取得突破,它将光引擎直接与交换ASIC集成,显著降低了功耗。

2025年,英伟达成为首批拥抱CPO的AI基础设施厂商之一,将其直接整合进Spectrum以太网与Quantum InfiniBand交换机(基于博通方案的Micas Networks也采取了类似路线)。

这大幅减少了搭建AI训练集群所需的可插拔模块数量。不过,直到近期,英伟达才开始公开讨论在NVSwitch架构中使用光互联与CPO。

NVLink走向光互联

两年前还认为光互联功耗过高的黄仁勋,在今年春季GTC上重新提及这一话题,并发布了Vera Rubin NVL576与Rosa Feynman NVL1152两款多机架系统,它们将通过光子技术,将计算域规模扩大8倍。

NVL576这个名字听起来并不陌生。事实上,在初代NVL72机架发布时,英伟达就曾预告过这一GPU数量的配置,只是据我们所知,该系统从未实际部署。英伟达也曾短暂以NVL576命名Vera Rubin Ultra Kyber机架,后来才决定不再将每一颗独立GPU裸片算作单独加速器。

除非英伟达的市场策略或路线图再次调整,真正的Vera Rubin NVL576将采用铜互联+光互联混合方案。“外界一直在讨论‘英伟达会走铜互联扩容还是光互联扩容?’——我们两者都会做。”黄仁勋在本届GTC上表示。

据英伟达超算与高性能计算副总裁伊恩·巴克介绍,网络第一层将在机架内使用铜互联,GPU无需改动;第二层骨干网络则采用可插拔模块。

目前尚不清楚英伟达具体采用何种拓扑结构,但两层胖树架构非常契合,且仅需一个机架的交换机(共72颗ASIC)作为骨干层。在光模块方案上,可插拔模块是最简单的选择,但英伟达也可能采用近封装光学(NPO),就像Lightmatter上月展示的技术。

对于Vera Rubin,英伟达仅明确在Oberon NVL72机架上支持光扩容,而非NVL144 Kyber系统。

我们尚无法确定英伟达做出这一选择的具体原因,但值得注意的是:一旦支持光扩容,就不必把所有硬件塞进单一机架。从散热与功耗角度看,支持8个机架之间的光互联扩容,显然更为合理。

Feynman世代全面走向共封装光学

真正令人期待的是英伟达Feynman世代产品,预计2028年中后期开始出货。据悉,这些系统将同时支持铜互联或共封装光NVLink互联。

英伟达对具体实现细节仍相对保密,但大致有两条技术路径。

最简单的方案是:将CPO集成到NVLink交换ASIC中,机架内部继续使用铜互联。这需要两层NVSwitch架构,以及两到三款不同ASIC:半光、全光,以及不含CPO的型号。这种方式可以让英伟达通过更换NVLink交换机托盘或增加骨干机架,灵活支持多种配置。

更具颠覆性的可能是:将CPO同时集成到交换机与GPU封装中。这几乎必然会推出多款Feynman GPU型号(带光口与不带光口),但可以将整个架构压缩为单层。谢纳在上月GTC期间接受采访时,拒绝对具体路线置评,但强调了单层计算架构的优势。

“如果可以避免,扩容架构最好不要设计多层,因为要尽可能降低计算引擎之间的延迟。”他说。

尽管将CPO集成进GPU在技术上可行,但单层NVL1152系统需要极高端口数的大型交换机。考虑到Feynman要到2028年中后期才会出货,这一目标并非不可能实现。

锁定供应链产能

无论采用哪种方案,都需要充足的激光模块供应。虽然CPO将大量光学与信号处理功能集成到封装中,但激光器通常仍独立设计,以方便维护。

这也解释了为何英伟达在上个月向两家激光巨头Coherent、Lumentum分别注资20亿美元,合计40亿美元。如果要大规模落地CPO,供应链必须提前做好准备。另一项显示英伟达正推进加速器端CPO的证据,是本周宣布对Marvell投资20亿美元。

根据合作内容,英伟达将与Marvell合作,把高速互联技术授权版NVLink Fusion集成到定制XPU中,用于英伟达Vera CPU。双方还将合作开发光I/O技术,具体细节未披露。

这家初创公司的光子互联技术,可用于搭建跨机架的一致性内存网络,对英伟达的吸引力,不亚于对Marvell大客户(包括AWS)的吸引力。众所周知,AWS是NVLink Fusion的重要客户,计划在下一代Trainium4计算集群中采用该技术。

无论如何,英伟达已经看清光互联扩容的大势。可以预见,CPO将在其未来系统设计中扮演越来越核心的角色。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论