据报道,OpenAI启动了一项重要战略调整:将租用谷歌云平台的张量处理单元(TPU),为其核心产品ChatGPT提供关键运算支持。这是OpenAI首次在核心业务场景中规模化引入非英伟达芯片,也标志着打破了英伟达长期以来的垄断地位。
OpenAI的计算需求正快速增长:ChatGPT付费订阅用户可能已突破2500万,较年初的1500万实现了大幅增长,每周还有数亿用户免费使用该服务。目前OpenAI主要通过微软和甲骨文租用英伟达服务器芯片,用于开发和训练其模型以及为ChatGPT提供算力支持。去年该公司在这类服务器上的支出超过40亿美元,其中训练与推理环节几乎各占一半,预计到2025年,其在AI芯片服务器上的投入将接近140亿美元。
采用谷歌芯片主要是基于两方面的考量,一是降低AI推理成本。相较于英伟达GPU,谷歌TPU在特定场景下的能效比更具优势,尤其在大规模并行计算任务中可显著降低单位算力成本;二是分散供应链风险。通过引入异构算力架构,OpenAI此前的AI训练与推理业务高度绑定Azure平台,这一举动表明其正逐步降低对微软云基础设施的依赖,既是技术储备的多元化尝试,也为未来可能的云服务商切换预留空间。
而对于事件的另一方谷歌而言,这次合作同样意义重大。过去数年,谷歌自研TPU主要服务于内部AI生态,此次向OpenAI开放标志着TPU正式进军外部市场。值得注意的是,谷歌已借此成功撬动多个头部客户:既有苹果这类终端巨头,也有Anthropic(由前OpenAI安全团队核心成员创立)、Safety Superintelligence等新兴AI势力。OpenAI的加入无疑将为谷歌TPU注入强心剂,尤其是在英伟达GPU仍占市场主导地位的当下。
尽管合作前景广阔,但双方仍存在显著博弈空间。据悉,谷歌仅向OpenAI开放了中端TPU型号,其最新一代旗舰芯片仍处于禁用状态。这一限制既源于两家公司在AI领域的直接竞争关系(如搜索、大模型等),也表明即便在合作场景下,底层硬件能力的差异化仍是维系竞争优势的关键筹码。若谷歌TPU在性能稳定性、成本控制等维度持续验证其竞争力,中长期看或将对英伟达形成实质性冲击。
与OpenAI同为全球最大AI芯片客户之一的Meta,知情人士透露,近期也曾考虑采用 TPU 芯片。Meta公司表示目前并未使用该产品。
此外,谷歌云还向其客户出租英伟达支持的服务器,因为英伟达芯片是行业标准,这样做带来的收益仍然比出租TPU多得多。开发者对控制这些芯片的专用软件更加熟悉。谷歌此前已向英伟达订购了超过100亿美元的最新Blackwell服务器芯片,并于今年2月开始向部分客户提供。
在出货量方面,据相关统计,2025年谷歌TPU出货量预计达150-200万片,亚马逊AWS Trainium 2 ASIC约140-150万片,而英伟达AI GPU供应量为500-600万片以上。供应链调研显示,谷歌和AWS的AI TPU/ASIC合计出货量已达到英伟达AI GPU出货量的40-60%。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。