据报道,OpenAI 开始租用谷歌的人工智能芯片,为 ChatGPT 和其他产品提供算力支持。
OpenAI 是英伟达 GPU 的最大客户之一,长期依赖后者 AI 芯片来训练模型及执行推理任务。据IT之家此前报道,本月早些时候有消息称 OpenAI 有意接入谷歌云服务,以应对日益增长的算力需求。
对谷歌而言,这项合作正值其扩大自研 Tensor 处理器(TPU)对外供货之际。此前 TPU 多用于内部项目,随后又开始向外部客户开放,并已吸引到包括苹果在内的大型科技公司,以及由前 OpenAI 高管创办的 Anthropic 和 Safe Superintelligence 等初创企业。
这也是 OpenAI 首次在关键任务中大规模采用非英伟达芯片,意味着其正在逐步摆脱对微软数据中心的依赖。据此前报道,TPU 的使用有望降低算力成本,为 OpenAI 提供一种更具价格优势的替代方案。
OpenAI 希望通过租用谷歌云平台上的 TPU,降低 AI 推理运算的支出。不过,谷歌并未向 OpenAI 提供最强性能的 TPU。谷歌云员工透露,这些高阶芯片目前并不对竞争对手开放。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。