
博通正迅速扩大其定制人工智能芯片业务规模。首席执行官陈福雄详细介绍了公司高达730亿美元的人工智能订单积压、新增的大型ASIC客户以及价值数十亿美元的XPU订单。随着超大规模数据中心运营商扩展大规模模型训练和推理基础设施,博通预计到2026财年,其人工智能业务收入将加速增长。
随着超大规模数据中心扩展人工智能工作负载,定制加速器的需求也在增长。
博通公司首席执行官霍克·谭(Hock Tan)在2025财年第四季度财报电话会议上表示,受专用芯片在训练大型语言模型(LLM)和支持推理API方面的应用日益广泛推动,博通定制人工智能加速器(XPU)业务同比增长超过一倍。客户越来越多地将这些XPU用于内部工作负载和共享外部服务,凸显了它们在多租户人工智能基础设施中日益重要的作用。
谷歌仍然是博通规模化应用最显著的案例。其与博通合作设计的张量处理单元 (TPU) 为 Gemini 模型训练提供技术支持,并为苹果、Coherent 和 SSI 等客户提供商业级 AI 云容量。这种模式——即超大规模数据中心将其定制的加速器平台扩展到外部用户——正在成为推动需求增长的强大动力。
Anthropic 也已成为博通最大的 XPU 客户之一。这家人工智能开发商在 2025 财年第三季度订购了价值 100 亿美元的最新款 TPU Ironwood 机架,随后在第四季度追加了 110 亿美元的订单,预计将于 2026 年底交付。Tan表示,其他大型超大规模数据中心运营商也在继续推行各自的定制加速器战略,博通在第四季度获得了第五个 XPU 客户,订单金额达 10 亿美元。他拒绝透露新客户是否为 OpenAI,但指出市场对定制 ASIC 的需求正在不断增长。
针对市场关于TPU是否会削弱GPU需求的争论,Tan表示,这种转变应该被视为商用计算解决方案之间的过渡,而不是零和博弈式的替代。他指出,通过商家渠道采用TPU的客户原本就会使用GPU,这意味着这一趋势正在扩大整体计算市场,而不是蚕食现有市场。
TPU 和其他 XPU 的扩展也源于软件优化型 GPU 在超大规模计算中性能提升有限。Tan 认为,大型模型开发者正在转向定制 ASIC,以获得通用 GPU 自身无法提供的性能提升。
Tan透露,博通公司人工智能相关产品的积压订单(包括XPU、交换机、DSP和激光器)已达730亿美元,预计将在未来六个季度交付。他强调,这只是订单量,并非固定营收预测,而且六到十二个月的交付周期可能会进一步推高积压订单数额。
随着需求激增,博通正在加强其供应链。该公司正在新加坡建设一座先进封装工厂,以部分实现多芯片加速器封装的内部化,从而缓解高带宽内存(HBM)等关键组件的瓶颈。在晶圆制造方面,Tan确认已从台积电获得2毫米和3毫米工艺技术的产能保障,并补充说目前没有直接的产能限制,但鉴于订单量巨大,保持警惕仍然至关重要。
利润率前景反映了系统销售额的增长以及运营杠杆的上升。管理层承认投资者担忧,人工智能系统出货量的增长——尤其是那些包含大量人脑内存和系统成本的XPU——将降低报告的毛利率。Tan表示,虽然随着系统收入规模的扩大,毛利率百分比会下降,但由于强大的运营杠杆作用,营业收入仍将持续增长。
首席财务官克尔斯滕·斯皮尔斯补充道,公司预计2026财年下半年毛利率将有所放缓,但毛利润总额将显著增长。她表示,营业利润率可能会略微承压,但人工智能订单的规模将转化为更高的绝对营业利润。博通计划在本财年晚些时候提供更详细的业绩指引。
此前,汇丰银行分析师Frank Lee在最新的研究报告中指出,市场低估博通未来两年的AI芯片营收成长潜质,预测未来几年公司有望争取到许多新客户。“几乎所有超大规模云端商(hyperscaler)都想投入定制化芯片,这些厂商的资本支出有望助长ASIC市场”。
Frank Lee相信,到了2027年度博通有望获得最多7家云端ASIC客户,相比之下Marvell只有三家,世芯仅有一家。
此外,Frank Lee还预计,ASIC的整体平均单价(blended ASP)有望于2026会计年度(截至2026年10月底为止)同比大涨92%、2027年度再度增长25%,主要是受到了芯粒尺寸增加以及较新的内存技术影响,因为ASIC的规格将逐渐接近AI GPU的水平。
基于以上预测,Frank Lee将博通投资评级从“观望”调高至“买进”,目标价也从240美元一口气上修至400美元。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。
