这一领域芯片,重度依赖台积电

来源:半导体产业纵横发布时间:2025-06-17 17:35
数据中心
台积电
生成海报
英特尔和三星正在研发先进的制程节点和先进的封装技术,但目前所有大型厂商都已100%依赖台积电。

大型语言模型(例如 ChatGPT 等 LLM)正在推动数据中心 AI 容量和性能的快速扩展。更强大的 LLM 模型推动了需求,并需要更多的计算能力。

AI 数据中心需要 GPU/AI 加速器、交换机、CPU、存储和 DRAM。目前,大约一半的半导体用于 AI 数据中心。到 2030 年,这一比例将会更高。

台积电在AI数据中心逻辑半导体领域几乎占据100%的市场份额。台积电生产:

  • Nvidia GPU、NVLink 和 CPU。

  • AMD CPU 和 GPU。

  • 英特尔 CPU。

  • 适用于 Microsoft、Amazon、Google 和 Open AI 的 AI 加速器(与 Broadcom、Marvell、Alchip 和 Mediatek 共同设计)。

  • Broadcom 和 Astera 交换机。

  • ASpeed 底板管理芯片。

台积电唯一没有生产的必需 AI 数据中心芯片是存储器:HBM、DDR、闪存。

AI数据中心芯片代工,为何青睐台积电?

台积电拥有AI数据中心必须具备的四大要素:
  • 最先进的工艺技术和产量。

  • 最先进的封装技术和产量。

  • 能够快速将复杂的新产品提升至每月大批量生产。

  • 拥有提前数年开发并批量交付的财务实力。

先进制程技术: AI 数据中心芯片,尤其是 AI 加速器,需要最先进的制程技术才能在芯片上集成最多的晶体管。像格芯这样的代工厂,目前无力承担先进 FinFET 节点的开发资金。目前只有英特尔、三星和台积电拥有 2 纳米及以下制程技术和路线图。

先进的封装技术: LLM 模型的规模呈指数级增长,即使采用最先进的工艺节点和最大的光罩尺寸,单个 GPU 芯片也无法处理该模型。运行 LLM 模型需要多个 GPU/AI 加速器。对于多芯片系统,瓶颈在于芯片间的数据速率。使用 200 Gb/s 铜互连的芯片间数据速率与片上数据速率相比非常非常慢。

解决方案是采用先进的封装技术,将多个 GPU 芯片和 HBM 内存集成在多光罩基板上,并通过极快的芯片间数据传输,打造 GPU 计算组件。台积电始终领先于客户需求,持续研发。未来 AI 加速器将采用共封装光通信技术,取代铜连接。台积电于 2024 年宣布推出 COUPE 工艺,用于将光学引擎集成到先进的封装中。英伟达今年早些时候宣布推出首款采用该技术的横向扩展交换机。

图片

图 2:HBM、多个 AI 芯片、电压调节器和 CPO 集成在一个封装中。来源:台积电

为了确保良率和产能提升,先进封装中的所有芯片都必须由台积电代工。唯一非台积电代工的芯片是DRAM内存和无源芯片。

台积电早在几年前就开始开发多芯片基板封装,当时HBM开始被GPU采用,并且不断提升其产品的尺寸和复杂性。他们最近宣布了一种晶圆尺寸的基板:

图片

图 3:更大的基板通过更快的芯片间数据传输速率提高了计算速度。来源:台积电

产能上,台积电拥有全球最先进的制程和封装技术产能,其中美国占有相当大且不断增长的份额。

2024年第四季度,台积电在全球晶圆代工市场的份额达到67%,较2023年初增长约10%。三星的份额为11%。英特尔则被归类为“其他”。台积电在先进制程晶圆代工领域的份额要高得多。

台积电正在增加其在美国最先进节点的产能比例。该公司计划在亚利桑那州生产N2和A16节点,目标是使这些节点总产量的约三分之一来自美国。该公司将继续先在中国台湾开发最先进节点。

摩根士丹利估计,到2026年,台积电将占据全球90%的CoWoS(先进封装)产能,其余产能将由安靠(Amkor)、联华电子(UMC)和日月光(ASE)占据,英特尔和三星的数据未提及。台积电在美国也拥有大量且不断增长的先进封装产能。

当 Nvidia、亚马逊或谷歌需要 AI 加速器时,它们不仅需要先进的工艺和先进的封装,还需要台积电的产能和可预测性,以确保它们能够快速提升产能并填满其数据中心。台积电已经向苹果证明了,它们能够快速可靠地大规模生产多个复杂芯片。

财务实力上,台积电的市值接近1万亿美元,资产负债表非常强劲。他们的最终客户是开发和提供前沿LLM的公司:微软、亚马逊、谷歌、OpenAI,这些公司都是市值达到万亿美元的公司(或有望达到万亿美元)。他们希望选择规模庞大、可靠且财力雄厚的供应商。

归根结底,台积电最大的竞争优势在于其管理实力与深度,以及其运营公司的系统/流程。台积电能够处理分布在多个国家的数十家晶圆厂的极其复杂的技术问题。他们的连续性是关键因素。

到 2030 年,GPU/LLM/HyperScalers 可能会成为台积电的主要客户。

如今,数据中心的绝大部分 AI 计算都基于 Nvidia,而 Nvidia 是台积电最大的客户之一。

AMD 目前的市场份额较小,但其 GPU 产品正在追赶 Nvidia;AMD 在扩展网络和软件方面仍有待改进,但看来他们的市场份额有望提升。客户希望拥有更多选择,因此他们愿意给 AMD 一个机会。6 月 12 日举行的 Advancing AI AMD 活动展示了多家主要厂商使用 AMD AI 来支持其模型,并取得了良好的效果。

AMD 首席执行官苏姿丰 (Lisa Su) 预测,数据中心 AI 加速器的潜在市场规模 (TAM) 将以每年 60% 以上的速度增长,到 2028 年将超过 5000 亿美元!推理和训练的配置比例正在快速变化。2025 年,两者的比例约为 50/50,但到 2028 年,推理将占 TAM 的 70%。预计到 2030 年,整个半导体市场将达到 1 万亿美元,因此 AI 数据中心正在成为市场的主力。

GPU 非常灵活。它们可以进行训练和推理。但它们价格昂贵。

四大云服务提供商(CSP)购买了英伟达约一半的产出,每家每年约合 200 亿美元。如果市场增长速度达到 Lisa 和 Jensen 的预测,那么四大云服务提供商每年将购买近 1000 亿美元的 GPU。

这意味着最大的超大规模计算公司和LLM公司拥有设计自有芯片的规模。他们设计自己的模型,因此他们确切地知道需要什么硬件,并且可以构建更便宜的加速器,部分原因是他们可以省去不需要的硬件,部分原因是他们可以与利润率更低的供应商合作,甚至直接与台积电合作。(他们仍然需要为那些为Nvidia/AMD设计模型的云客户提供GPU)。

近十年来,亚马逊和谷歌一直在设计各自的AI加速器。谷歌的第一篇TPU论文发表于2017年。亚马逊于2015年收购了Annapurna Labs:该团队设计了多代Inferentia和Trainium AI加速器。亚马逊是台积电十大客户之一。

现在,所有主要的超大规模计算公司/LLM 都在构建自己的 AI 加速器,包括微软 Maia、Meta MTIA,以及广为传闻的 OpenAI 和 xAI 的 AI 加速器项目。(唯一的例外是 Anthropic,它正在使用亚马逊的芯片。)如今,这些公司正在与博通、Marvell、Alchip 以及其他能够设计 2nm 或更低工艺、采用先进封装和高速 PHY 芯片的公司合作。与亚马逊一样,一些超大规模计算公司/LLM 可能会决定收购现有厂商,进行整合,然后直接与台积电进行流片。

未来难以预测,但2030年最有可能的情况是,英伟达仍将是市场领导者,AMD的份额将远超现在,而大型超大规模计算厂商/LLM厂商的定制AI加速器占据了相当大的市场份额,亚马逊、微软、谷歌、Meta以及为其生产芯片的ASIC公司可能各占10%的份额。这意味着到2030年,台积电的六大客户将是数据中心AI提供商。

台积电将在 2030 年代继续保持 AI 代工厂的主导地位

超大规模/LLM 公司希望降低成本,但首先他们必须确保以高可靠性获得所需的大量 AI 加速器。

英特尔和三星正在研发先进的制程节点和先进的封装技术,但目前所有大型厂商都已100%依赖台积电。芯片公司将积极评估和考虑英特尔和三星,因为每个人都希望拥有更多选择,但台积电的多重优势将难以在短期内被英特尔和三星超越。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论