2024年十大顶级AI硬件和芯片制造公司

来源:半导纵横发布时间:2024-11-28 16:09
AI
芯片制造
生成海报
由于人工智能硬件的快速发展,各家公司每年都在推出先进的产品以跟上竞争的步伐。

随着普及度和进步度的不断提升,AI 硬件已成为一个竞争激烈的市场。AI 硬件公司必须快速更新产品,才能在市场上推出最新、最有效的产品。虽然这 10 家 AI 硬件公司专注于 CPU 和数据中心技术,但随着市场的扩大,它们的专业化也慢慢拓宽。现在,这些公司正在竞相打造市场上最强大、最高效的 AI 芯片。

人工智能硬件市场十大顶级公司

以下人工智能硬件和芯片制造公司按字母顺序列出。

Alphabet

谷歌母公司 Alphabet 拥有多种移动设备、数据存储和云基础设施产品。Cloud TPU v5p专为训练大型语言模型和生成式 AI 而设计。每个 TPU v5p pod 有 8,960 个芯片,每个芯片的带宽为 4,800 Gbps。

Alphabet 一直致力于生产功能强大的 AI 芯片,以满足大型项目的需求。该公司还推出了性能扩展技术 Multislice。虽然硬件限制通常会限制软件扩展,但运行结果表明,在 TPU v4 上数十亿参数模型的每秒模型浮点运算利用率接近 60%。

AMD

AMD 打造了下一代Epyc 和 Ryzen 处理器。该公司于 2024 年发布了其最新产品 Zen 5 CPU 微架构。

AMD 于 2023 年 12 月发布了MI300A和 MI300X AI 芯片。MI300A 的 GPU 拥有 228 个计算单元和 24 个 CPU 核心,而 MI300X 芯片则是拥有 304 个计算单元的 GPU 型号。MI300X与Nvidia 的 H100在内存容量和带宽方面不相上下。

Apple

Apple Neural Engine 是基于 Apple 芯片的专用核心,进一步提升了该公司的 AI 硬件设计和性能。Neural Engine 促成了 MacBook 的 M1 芯片。与上一代相比,搭载 M1 芯片的 MacBook 的总体性能提高了 3.5 倍,图形性能提高了 5 倍。

在 M1 芯片成功之后,苹果宣布了后续几代芯片。截至 2024 年,苹果已发布 M4 芯片,但仅在 iPad Pro 中可用。M4芯片的神经引擎比 M1 芯片快三倍,CPU 比 M2 快 1.5 倍。

AWS

AWS 已将重点从云基础设施转向芯片。其Elastic Compute Cloud Trn1 实例专为深度学习和大规模生成模型而构建。它们使用 AWS Trainium 芯片和 AI 加速器来运行。

trn1.2xlarge 实例是第一个迭代版本。它只有一个 Trainium 加速器、32 GB 实例内存和 12.5 Gbps 网络带宽。现在,亚马逊拥有 trn1.32xlarge 实例,它有 16 个加速器、512 GB 实例内存和 1,600 Gbps 带宽。

AWS Inferentia是一款机器学习芯片,可以以低成本生成高性能推理预测。Trainium 加速器用于训练模型,而 Inferentia 加速器用于部署模型。

Cerebras

Cerebras 发布了第三代晶圆级引擎WSE-3 ,一举成名。WSE-3 被认为是地球上最快的处理器,一个单元上有 900,000 个 AI 核心,每个核心每秒可访问 21 PB 的内存带宽。

与 Nvidia 的 H100 芯片相比,WSE-3 的带宽高出 7000 倍,片上内存高出 880 倍,核心数高出 52 倍。这款 WSE-3 芯片的面积也高出 57 倍,因此需要更多的空间来在服务器中安装该芯片。

IBM

在其首款专用 AI 芯片Telum取得成功后,IBM 着手设计一款强大的继任者来与竞争对手抗衡。

2022 年,IBM 推出了人工智能单元。这款人工智能芯片是专门设计的,运行速度比普通的通用 CPU 更好。它拥有超过 230 亿个晶体管,并具有 32 个处理核心。与前几代产品相比,它的内存占用率更低,效率更高。

IBM 正在开发 NorthPole AI 芯片,但尚未确定发布日期。NorthPole 与 IBM 的 TrueNorth 芯片不同。NorthPole 架构旨在改善能源使用,减少芯片占用的空间并降低延迟。NorthPole 芯片将标志着节能芯片的新时代。

Intel

英特尔凭借其AI产品在CPU市场上声名鹊起。

Xeon 6 处理器于 2024 年推出,并已交付数据中心。这些处理器每个插槽最多可提供 288 个内核,从而缩短了处理时间并增强了同时执行多项任务的能力。

英特尔发布了Gaudi 3 GPU 芯片,与 Nvidia 的 H100 GPU 芯片竞争。Gaudi 3 芯片的模型训练速度提高了 1.5 倍,输出结果也提高了 1.5 倍,而且功耗比 Nvidia 的 H100 芯片更低。

Nvidia

2023 年初,当 Nvidia 的估值超过 1 万亿美元时,它就成为了 AI 硬件市场的强大竞争对手。该公司目前的工作包括其用于数据中心的 A100 芯片和 Volta GPU。这两种产品都是资源密集型模型的关键技术。Nvidia 还为游戏行业提供 AI 驱动的硬件。

2023 年 8 月,Nvidia 宣布其最新技术突破,推出了全球首款HBM3e 处理器。它推出了 Grace Hopper 平台,这是一款超级芯片,带宽是当前一代技术的三倍,内存容量是其三倍以上。它的设计专注于在加速 AI 时代提高可扩展性和性能。

该公司的NVLink技术可以将Grace Hopper超级芯片与其他超级芯片连接起来,NVLink使多个GPU能够通过高速互连进行通信。

GPU 微架构BlackwellB200A 计划于 2025 年发布。Nvidia 还计划在 2026 年推出一款新的加速器 Rubin。

Qualcomm

尽管与同行相比,高通在人工智能硬件市场上相对较新,但其在电信和移动领域的经验使其成为一个有前途的竞争对手。

高通的 Cloud AI 100 芯片在一系列测试中击败了 Nvidia H100。其中一项测试是查看每块芯片每瓦可以执行的数据中心服务器查询数量。高通的 Cloud AI 100 芯片每瓦总共可执行 227 次服务器查询,而 Nvidia H100 则为 108 次。在物体检测过程中,Cloud AI 100 芯片每瓦还可执行 3.8 次查询,而 Nvidia H100 则为 2.4 次查询。

2024 年,该公司发布了移动芯片骁龙 8s Gen 3。该芯片支持 30 种 AI 模型,并具有生成 AI 功能,例如图像生成和语音助手。

高通还推出了具有 AI 功能的笔记本电脑处理器 Snapdragon X Plus。这款处理器可以与竞争对手的产品相媲美,因为它的功耗更低,CPU 性能更快。

Tenstorrent

Tenstorrent 为人工智能打造计算机,其领导者是设计 AMD Zen 芯片架构的 Jim Keller。Tenstorrent 拥有多种硬件产品,包括其 Wormhole 处理器和 Galaxy 服务器,后者打造了Galaxy Wormhole Server。

Wormhole n150 和 n300 是 Tenstorrent 的可扩展 GPU。n300 几乎是 n150 规格的两倍。这些芯片用于网络 AI,并被放入 Galaxy 模块和服务器中。每台服务器最多可容纳 32 个 Wormhole 处理器、2,560 个核心和 384 GB 的 GDDR6 内存。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论