博通与谷歌达成至2031年的长期TPU和网络供应协议

来源:半导纵横发布时间:2026-04-07 14:33
博通
谷歌
生成海报
博通、谷歌和Anthropic进一步深化了战略合作关系。

根据博通周一向SEC提交的监管文件,该公司已同意为谷歌生产未来版本的人工智能芯片,同时还与Anthropic签署了一项扩大后的协议,使Anthropic能够获得约3.5吉瓦的算力,这些算力将基于谷歌的AI处理器提供。根据这项新的长期协议,博通将为谷歌设计并供应定制化的张量处理单元(TPU),用于其下一代AI加速器,同时还将为谷歌的新一代AI数据机架提供网络设备及相关组件,该合作将持续至2031年。

同时,博通、谷歌和Anthropic也进一步深化了战略合作关系。从2027年开始,Anthropic将通过博通获得约3.5吉瓦的下一代基于TPU的AI算力,这也是其多吉瓦级扩张计划的一部分。

算力规模扩张的背后是该公司业务数据的显著增长。Anthropic披露,进入2026年以来,其核心产品的企业端需求加速释放。截至目前,公司的年化营收(Run-rate revenue)已强势突破300亿美元大关,相较于2025年底的90亿美元实现了跨越式增长。在今年2月公布G轮融资时,年化客单价超百万美元的企业大客户数量为500余家;而仅仅不到两个月后,这一客户群体已翻倍至1000家以上。

Anthropic首席财务官克里希纳·拉奥(Krishna Rao)在声明中表示,此次与谷歌及博通的合作延续了公司既定的算力扩张策略。他指出,公司正在建立必要的算力储备以应对客户群体的指数级增长,这也是Anthropic迄今为止规模最大的算力投资承诺。

值得注意的是,这批新增算力绝大部分将落地美国本土。2025年11月,Anthropic曾承诺斥资500亿美元加码美国本土计算基础设施。同时,该协议也进一步深化了Anthropic与谷歌云及博通的合作关系,此前该公司曾于去年10月宣布扩大谷歌云TPU的使用规模。

在算力生态的布局上,Anthropic始终坚持底层硬件的多元化。其Claude模型的训练与运行广泛分布于亚马逊AWS Trainium、谷歌TPU以及英伟达GPU等多种AI芯片上。该公司表示,计算平台的多样化不仅能根据特定任务灵活匹配算力,优化运行性能,亦能为执行关键任务的企业客户提供更高的系统韧性。

尽管扩大了与谷歌的算力合作,Anthropic强调,亚马逊目前仍是其主要的云服务提供商与模型训练合作伙伴,双方将继续推进名为“雷尼尔”(Project Rainier)的联合项目。在分发渠道上,Claude目前是业内唯一一款同时接入亚马逊AWS Bedrock、谷歌云Vertex AI以及微软Azure Foundry三大头部云平台的前沿AI模型。

TPU 的热潮可能会吸引其他 AI 初创公司和新客户关注谷歌云,帮助该公司充分利用多年来在芯片上的投资。Seaport 分析师 Jay Goldberg 表示,谷歌与 Anthropic 的交易是“对 TPU 的有力验证”,这可能会吸引更多公司尝试。“很多人已经在考虑这个问题了,现在可能还会有更多人加入进来。”

图形处理单元(GPU)是芯片市场中由英伟达主导的部分,其设计初衷是为了加速图形渲染——主要用于视频游戏和其他视觉效果应用——但事实证明,由于其能够处理海量数据和计算,它非常适合训练人工智能模型。而TPU则是一种专用集成电路(ASIC),即专为特定用途而设计的微芯片。

谷歌于2013年开始研发其首款TPU,并于两年后正式发布。最初,它用于加速公司的网络搜索引擎并提高效率。谷歌于2018年首次将TPU应用于其云平台,允许客户注册使用与提升搜索引擎性能相同的技术的计算服务。

TPU也被谷歌自身应用程序用作人工智能和机器学习任务的加速器。由于谷歌及其旗下 DeepMind 部门开发了像 Gemini 这样的尖端 AI 模型,该公司能够将 AI 团队的经验教训反馈给芯片设计师,而定制芯片的能力也使 AI 团队受益匪浅。

“十多年前,我们构建了第一个基于 TPU 的系统,当时的真正目的是解决我们面临的一些内部扩展挑战,”谷歌云副总裁兼 AI 和计算基础设施总经理 Mark Lohmeyer 在 9 月份的一次会议演讲中说道。“后来,当我们将这些计算能力交到谷歌 DeepMind 和其他公司的研究人员手中时,这在很多方面直接促成了 Transformer 的发明,”他指的是谷歌提出的开创性 AI 架构,它已成为当今模型的基础。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论