一周精选:小米汽车芯片要来了;博通单芯片驱动10万张GPU;数据中心芯片,更香了

来源:半导纵横发布时间:2025-06-06 10:39
芯片制造
汽车电子
AI
生成海报
快来围观半导纵横这一周都有哪些关于芯片的重磅报道吧。

在过去的一周,半导纵横为大家呈现了最新的产业资讯,独到的专家观点,前沿的科技技术,本文特意整理了几篇芯片领域的重磅报道,以飨读者。

ASIC市场,越来越大了

摩根士丹利预计,AI ASIC市场规模将从2024年的120亿美元增长至2027年的300亿美元,年复合增长率达到34%。要知道2023年—2029年,高性能计算GPU市场的年复合增长率是25%,而CPU和APU的增长率仅为5%和8%。ASIC市场在增长。

目前国外大厂中谷歌、亚马逊、Meta、OpenAI等大型云计算和大模型厂商均加速布局定制化ASIC。国内企业中寒武纪、达摩院、百度、腾讯等都在推出自己的ASIC芯片,市场主流的ASIC芯片有TPU、NPU、VPU芯片。

在ASIC市场,目前博通以55%~60%的份额位居第一,Marvell以13%~15%的份额位列第二。其中,博通在AI芯片领域的核心优势在于定制化ASIC芯片和高速数据交换芯片,并且有两个大合作备受关注:第一是Meta与博通已合作开发了前两代AI训练加速处理器,目前双方正加速推进第三代MTIA芯片的研发;第二是OpenAI已委托博通开发两代ASIC芯片项目,计划于2026年投产。

阅读更多:https://www.icviews.cn/news/18915/7

数据中心芯片,更香了!

数据显示,在2030年数据中心半导体支出中,GPU/AI加速器占到60%;AI扩展网络芯片占到15%;CPU(x86和ARM)占到10%;存储芯片占到10%;电源、BMC等占到5%。

目前,几乎所有数据中心半导体收入都集中在九家公司身上:英伟达、台积电、博通、三星、AMD、英特尔、美光、SK 海力士和 Marvell。

在GPU/AI 加速器,英伟达是最大赢家。在刚刚过去的一个季度,英伟达来自AI加速器的季度收入为330亿美元,博通来自AI加速器的收入约40亿美元,Marvell来自AI加速器的季度收入约10亿美元,AMD来自AI加速器的收入小于10亿美元。

在CPU市场中,近二十多年来,英特尔一直是数据中心 CPU 市场无可争议的领导者,其提供的 Xeon 处理器为全世界大多数的服务器提供动力。但是最近情况发生了变化,去年11月,独立研究机构 SemiAnalysis 指出,AMD 的数据中心业务部门现在的销量已经超过了英特尔的数据中心和 AI 业务。虽然英特尔的 Xeon CPU 仍然为大多数服务器提供动力,但越来越多的新服务器,特别是高端设备已经趋向于选用 AMD 的 EPYC 处理器。

在内存市场中,HBM备受瞩目。最近一个季度几乎HBM所有的收入(约 250 亿美元)均来自数据中心。SK海力士、三星、美光三家公司为HBM领域的主要供应商,其中仅仅是SK海力士一家就占到了越70%的HBM市场份额。

在AI扩展网络芯片市场,英伟达依旧是最大的赢家,竞争者包括博通、Astera。博通首席执行官 Hok Tan 估计,网络目前占数据中心支出的5% 到10%,随着互连GPU数量的增加,互连的增长速度会更快,这一比例将增长到15%到20%。

阅读更多:https://www.icviews.cn/news/18865/7

小米汽车芯片,要来了

近日,在小米投资者大会上,雷军透露小米正在做汽车芯片。同时芯片首要的战略是掌握技术能力,拥有技术后,对所有智能设备的竞争力都会大幅提升。

博主 @数码闲聊站 也发文透露了小米芯片相关进展信息:“小米汽车芯片在做了,车规级芯片验证时间更长。再结合 5G 基带在研,可以确定的是,玄戒芯片会持续迭代,并逐步覆盖小米的高端产品线,硕果累累。”

在机器人方面,雷军称五年前小米就开始投资研发机器人领域,目前汽车工厂正在试用相关能力。

雷军表示,未来5年,小米将在核心技术的研发上,再投入2000亿元。我们仍将锚定“芯片、AI、OS”筑牢硬核科技的三大基座,持续深耕底层硬核技术赛道。通过软硬件融合,持续赋能人车家全生态,必将形成长期差异化体验的护城河。

阅读更多:https://www.icviews.cn/news/18864/7

博通发布超级芯片,单芯片驱动10万张GPU

博通宣布正式交付其最新一代数据中心交换机芯片Tomahawk 6。据介绍,该芯片单芯片交换容量为102.4Tbps,较现有以太网交换机带宽翻倍,并支持超大规模GPU集群的互联需求,单颗芯片即可驱动多达10万张GPU协同工作。

Tomahawk 6专为AI时代设计,其带宽理论峰值达102Tbps,相当于每秒处理2.5万部4K电影,较前代Tomahawk 5芯片实现6倍吞吐能力提升;架构创新方面,其支持100G/200G SerDes接口及共封装光学模块(CPO),兼容超大规模AI网络运营商的定制化需求。

博通核心交换业务高级副总裁Ram Velaga透露,当前AI计算依赖GPU集群,但网络传输效率不足导致GPU利用率普遍低于40%。Tomahawk 6通过消除数据传输瓶颈,使GPU集群的实际算力释放效率提升至90%以上,为万亿参数大模型的训练与推理提供基础支撑。

阅读更多:https://www.icviews.cn/news/18863/7

AI算力新材料,“磷化铟”市场崛起

在全球范围内,磷化铟衬底市场规模快速增长。受AI算力、数据中心和6G通信驱动,Yole预测全球InP衬底市场规模将从2022年的30亿美元增至2028年的64 亿美元,年复合增长率达13.5%。这一增长主要由光通信、5G与卫星通信、新兴技术等领域推动。例如,100G/200G光模块需求激增,使得InP基激光器芯片成为主流选择;高频器件(如HEMT、pHEMT)对InP衬底的需求也随5G网络建设而上升。此外,量子点激光器、硅光集成等前沿技术的商业化加速,进一步扩大了市场需求。

在数据通信和人工智能应用场景中,基于磷化铟的外调制激光器和高功率连续波激光器发挥着举足轻重的作用。它们推动了适用于超大型数据中心和机器学习集群的收发器解决方案的快速落地。以相干收发器为例,这一高性能主力器件能够跨越数千公里的距离,在单个波长上实现高达每秒 800Gbps 的数据传输速率,充分满足了 AI 时代海量数据高速传输的严苛要求。随着这些应用需求的持续井喷,晶圆厂亟需具备与之匹配的规模生产能力,而向 6 英寸晶圆尺寸的转变无疑是实现这一目标的关键一步。

阅读更多:https://www.icviews.cn/news/18813/7

下一个“芯片金矿”,玩家已就位

这轮AI眼镜的突破,重点在于硬件功能和AI能力的深度融合。当AI眼镜增加了麦克风、摄像头、存储、SoC等电子零部件,并且实现语音交互、拍照等功能后,用户的体验进一步提升。

随着玩家的不断加入,AI眼镜厂商正在硬件上达成“共识”。拆解AI眼镜的核心零部件,按照成本排序:SoC、存储芯片、结构件、传感器、摄像头模组、代工组装等。

目前,AI眼镜搭载SOC芯片共有三种方案。

第一种,系统级SoC。这类方案的优势在于高度集成与全能性能。这方面采用4nm工艺的高通AR1是众多厂商的主要选择,Meta眼镜使用高通的AR1Gen1芯片,续航约四小时;OPPO在骁龙峰会上也展示了应用了骁龙AR1 Gen1芯片开发的XR眼镜产品。

第二种,MCU级SoC + ISP。这类方案的优势在于极致低功耗与成本控制。MCU(微控制单元)主要负责简单的逻辑控制与基础运算,功耗极低;而 ISP(图像信号处理器)则专注于图像数据处理。

第三种,SoC + MCU。这类方案的优势在于既兼顾了性能,又兼顾了能耗。SoC适用于高计算需求的应用,如分时操作系统、人工智能和摄影功能,而MCU则适用于低计算需求的应用,如音频处理。但缺点也很明显,成本太高。并且对芯片设计和系统开发的技术要求也较高。

阅读更多:https://www.icviews.cn/news/18762/7

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论