Cerebras开启IPO,估值目标350亿美元

来源:半导纵横发布时间:2026-04-20 09:57
OpenAI
芯片制造
生成海报
OpenAI将斥超200亿美元采购Cerebras芯片。

当地时间4月17日,美国AI芯片独角兽Cerebras Systems正式披露IPO申请文件,计划以CBRS为股票代码在纳斯达克全球精选市场上市。本次IPO计划5月中旬落地,目标募资超30亿美元,估值瞄准350亿美元。

Cerebras成立于2015年,创始人包括Andrew Feldman、Gary Lauterbach、Michael James、 Sean Lie和Jean-Philippe Fricker,旨在将晶圆级计算推向市场。公司CEO Andrew Feldman曾将SeaMicro出售给AMD并任AMD副总裁。公司CTO Sean Lie曾任AMD数据中心服务器首席硬件架构师。

Cerebras声称其第三代AI芯片WSE-3是“史上大批量推向市场的最大、最快AI芯片”。该芯片运行Llama、GLM、MiniMax、通义千问等开源模型,推理速度较主流GPU方案最高快15倍,特定场景超1000倍。该芯片由台积电代工、日月光封测,搭载于CS-3系统,可组网构成AI超级计算机,专为大模型训练与低延迟推理优化。

对比英伟达的B200,WSE-3集成了90万个计算核心、44GB片上内存和21PB的内存带宽。与包含两颗独立芯片的英伟达B200封装相比,WSE-3拥有19倍的晶体管、250倍的片上内存容量和2625倍的内存带宽。

招股文件显示,公司业绩实现跨越式增长。公司营收从2022年的2460万美元飙升至2025年的5.10亿美元,4年增长超19倍,其中2025年同比大增76%;净利润从2024年净亏损4.82亿美元,转为2025年盈利2.38亿美元,成功实现扭亏为盈;此外,公司2025年研发投入2.43亿美元,毛利率维持在39.0%,硬件收入占比约70%,云服务及其他服务收入占比近30%。

公司客户包括OpenAI、AWS、阿联酋G42、MBZUAI等知名企业。其中,公司曾在2026年1月与OpenAI签订超200亿美元多年协议,为其提供750兆瓦AI算力,并获10亿美元数据中心开发资金支持。Cerebras还在3月与AWS达成多年合作,扩大全球推理服务规模。过去两年,公司超八成收入来自中东客户,2025年MBZUAI与G42合计贡献公司86%营收,成为业绩爆发的关键引擎。

值得关注的是,Cerebras在今年2月才完成10亿美元H轮融资,估值达230亿美元;本次IPO计划5月中旬落地,目标募资超30亿美元,估值瞄准350亿美元。

招股书透露,公司主要股东除创始团队外,还包括Benchmark Capital、Foundation Capital和Eclipse Ventures等知名投资机构,以及高通、AMD和台积电等公司客户和主要代工方。OpenAI作为最大客户,在公司完成200亿美元采购后逐步行权,行权后将跻身前三大股东。

OpenAI重仓Cerebras

据报道,人工智能巨头 OpenAI 已与美国芯片初创公司 Cerebras 达成一项重磅多年期合作协议,计划向其支付超 200 亿美元采购 AI 服务器算力。这笔规模空前的交易,被业内解读为 ChatGPT 开发商在硬件供应链布局上的关键战略动作 —— 通过扶持英伟达的替代方案,加速推进供应链多元化,从而逐步减轻对单一供应商的依赖,保障其 AI 大模型研发与商业化的连续性。

作为全球生成式 AI 领域的领军企业,OpenAI 近年来面临着算力需求激增与硬件供应受限的双重压力。此次与 Cerebras 的合作协议覆盖未来三年,其规模几乎是此前市场曝光版本的两倍:2023 年底曾有消息称,双方已达成价值超 100 亿美元、对应 750 兆瓦算力的合作框架,而新协议在资金与算力供给上均实现翻倍。多位知情人士进一步透露,若后续合作进展符合预期,OpenAI 的总投入规模最终有望进一步扩大至 300 亿美元,成为全球 AI 行业史上规模最大的硬件采购协议之一。

股权绑定与基础设施资金支持

此次合作的核心亮点在于其特殊的财务结构设计,通过股权与资金的深度绑定,实现了 OpenAI 与 Cerebras 的长期利益协同。根据协议条款,OpenAI 将获得 Cerebras 的少数股权认股权证,持股比例将与自身的采购支出金额同步动态调整 —— 若最终承诺支出接近 300 亿美元的上限,OpenAI 在 Cerebras 的持股比例最高可能达到 10%,成为该公司的重要战略股东。这种 “采购 + 投资” 的绑定模式,既为 Cerebras 提供了稳定的订单支撑,也让 OpenAI 得以深度参与芯片厂商的技术迭代过程,确保硬件产品与自身 AI 模型的适配性。

除股权合作外,资金支持还延伸至基础设施层面。消息显示,OpenAI 已同意向 Cerebras 提供约 10 亿美元的专项资金,用于建设专门运行其 AI 产品的数据中心。这笔资金被明确列为营运资金存款,将全部用于与 Cerebras 硬件配套的基础设施建设,包括数据中心机房搭建、电力供应系统升级、冷却方案优化等关键环节。对于 Cerebras 而言,这笔资金不仅缓解了其在产能扩张与基础设施建设上的资金压力,更能加速其硬件产品的规模化部署,为满足 OpenAI 的算力需求提供保障。

挑战英伟达主导地位

OpenAI 与 Cerebras 的深度合作,背后折射出全球 AI 行业的重要趋势:随着生成式 AI 应用的爆发式增长,AI 开发企业对算力的需求持续飙升,而英伟达在 AI 加速芯片市场的垄断地位,导致硬件采购成本居高不下,且存在供应链卡脖子风险。在此背景下,头部 AI 企业纷纷寻求替代方案,以控制基础设施投入成本,并提升供应链的稳定性。

目前,英伟达凭借 A100、H100 系列 GPU 芯片,占据全球 AI 加速芯片市场约 80% 的份额,其产品几乎成为大模型训练与推理的 “标配”。但过高的市场集中度也带来了诸多问题:一方面,GPU 芯片供不应求导致价格持续上涨,大幅增加了 AI 企业的研发与运营成本;另一方面,单一供应商依赖可能导致技术迭代受限,且在全球供应链波动的背景下,存在供货中断的风险。对于 OpenAI 而言,其旗下 ChatGPT、GPT-4 等产品的持续迭代,以及未来多模态模型、智能体等新应用的落地,均需要海量且稳定的算力支撑,因此降低对英伟达的依赖成为其必然选择。

Cerebras 之所以能成为 OpenAI 的核心替代选择,关键在于其独特的技术路线。该公司主打晶圆级架构(Wafer-Scale Engine),突破了传统芯片的封装限制,将整片硅晶圆直接作为单个处理器使用,无需像 GPU 那样通过多芯片互联实现算力聚合。这种架构设计带来了两大核心优势:一是极致的算力密度,单芯片集成的晶体管数量远超传统 GPU,能够大幅提升并行计算效率;二是极低的延迟,数据无需在多个芯片间传输,有效解决了传统 GPU 集群在大规模并行计算中的数据传输瓶颈。此外,OpenAI 首席执行官萨姆・奥尔特曼本人也是 Cerebras 的早期投资者,这一渊源也为双方的深度合作奠定了基础。

值得注意的是,OpenAI 此次采购主要聚焦于 AI 推理任务 —— 即 AI 模型在生成回复、处理用户请求时的算力消耗,而非模型训练阶段。业内分析认为,推理任务的算力需求更具稳定性和可预测性,适合采用差异化的硬件方案;而训练任务对算力的兼容性、软件生态的完善度要求更高,短期内英伟达仍将占据主导地位。但随着 Cerebras 等厂商技术的不断成熟,未来其在训练任务中的应用也有望逐步拓展,进一步冲击英伟达的市场份额。

此次合作协议的曝光,恰逢 Cerebras 首次公开募股(IPO)的关键节点。与 OpenAI 的超大规模合作协议,无疑将成为 Cerebras IPO 的核心亮点,为其估值提升提供重要支撑。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论