内存10倍提速,高通AI250放大招

来源:半导纵横发布时间:2025-10-28 14:51
高通
AI
生成海报
但它们能击败 AMD 和 Nvidia 的产品吗?

在AI算力需求持续爆发的当下,高通于周一正式抛出重磅布局,宣布推出两款面向数据中心的AI推理加速器——AI200与AI250,分别计划于2026年和2027年实现上市。这一举措不仅标志着高通正式加码数据中心AI硬件赛道,更意图凭借效率与成本优势,向AMD、Nvidia在机架级AI解决方案领域的主导地位发起冲击,同时也兑现了其每年更新产品的长期规划承诺,为全球AI基础设施市场注入新的竞争活力。

两款新加速器的核心技术根基,源于高通专为数据中心AI工作负载量身定制的高通 Hexagon神经处理单元(NPU)。作为高通在AI计算领域的核心技术载体,Hexagon NPU历经多年持续迭代优化,其最新版本已形成功能完备的计算架构体系。该架构采用12+8+1的配置方案,集成标量、矢量和张量三类加速器,能够全面支持INT2、INT4、INT8、INT16、FP8、FP16等多精度数据格式,可灵活适配不同规模、不同精度要求的AI推理任务。为进一步提升运行效率与安全性,Hexagon NPU还融入了微块推理技术,有效减少内存流量消耗;支持64位内存寻址,满足大规模数据处理的内存扩展需求;同时搭载虚拟化功能与Gen AI模型加密技术,为企业级应用提供额外安全保障。对于高通而言,将成熟的Hexagon NPU技术从移动终端拓展至数据中心领域,是技术积累到一定阶段的自然延伸,不过目前其尚未明确公布AI200与AI250的具体性能指标,这也成为行业关注的焦点之一。

作为高通首款数据中心级推理系统,AI200机架级解决方案在硬件配置上展现出强劲竞争力。该系统搭载768GB LPDDR内存,这一容量在当前推理加速器产品中处于领先水平,能够充分满足大规模生成式AI工作负载对内存的高需求。在扩展能力方面,AI200系统通过PCIe互连实现纵向扩展,借助以太网完成横向扩展,可灵活适配不同规模的数据中心部署需求。散热与功耗设计上,该系统采用直接液冷方案,每机架功率高达160kW,这一参数在推理解决方案中实属罕见,既体现了其强大的算力输出潜力,也对数据中心的供电与散热配套设施提出了更高要求。此外,AI200系统还支持企业级机密计算功能,能够为敏感AI任务提供安全隔离的运行环境,进一步拓宽了其在金融、政务等关键领域的应用场景,该解决方案预计将于2026年正式面向市场发售。

将于2027年推出的AI250加速器,在继承AI200核心架构优势的基础上实现了关键技术升级。其最大亮点在于引入近内存计算架构,通过重构内存与计算单元的连接方式,使有效内存带宽提升10倍以上,大幅降低数据在内存与计算单元之间的传输延迟,显著提升大规模模型的推理效率。同时,AI250系统新增分解推理功能,允许计算资源与内存资源在不同加速卡之间动态调度与共享,能够根据任务负载实时优化资源配置,进一步提升硬件利用率。高通明确将AI250定位为更高效率、更高带宽的高端解决方案,专门针对大型Transformer模型进行深度优化,同时完整保留了AI200在散热设计、安全性与可扩展性方面的核心特性,确保新旧产品之间的平滑过渡与协同部署。

“凭借高通 AI200和AI250,我们正在重新定义机架级AI推理的可能性。”高通 Technologies高级副总裁兼技术规划、边缘解决方案和数据中心总经理Durga Malladi表示,这些创新的AI基础设施解决方案,能够让客户以前所未有的总体拥有成本(TCO)部署生成式AI,同时满足现代数据中心对灵活性和安全性的核心需求。这一表述既凸显了高通对两款产品成本优势的信心,也揭示了其瞄准企业级市场痛点的产品战略。

硬件之外,高通同步构建了一套超大规模级端到端软件平台,专门针对大规模AI推理场景进行优化。该软件平台全面兼容主流机器学习与生成式AI工具集,涵盖PyTorch、ONNX、vLLM、LangChain和CrewAI等行业常用框架,确保开发者能够无缝迁移现有模型与开发流程。软件堆栈还集成了分解式服务、机密计算等核心功能,并支持预训练模型一键式加载,大幅简化了AI模型从部署到运维的全流程复杂度。“我们丰富的软件栈和开放的生态系统支持,使开发者和企业能够比以往更轻松地在我们优化的AI推理解决方案上集成、管理和扩展已训练好的AI模型。”Malladi补充道,高通 AI200和AI250与领先AI框架的无缝兼容性及一键式部署能力,旨在加速AI应用落地与创新迭代。

值得注意的是,尽管高通详细披露了AI200与AI250的硬件架构、软件生态及部署特性,但仍有一个关键信息尚未明确——这两款机架级推理解决方案将搭载何种处理器。据悉,高通已于今年早些时候正式启动自研数据中心级CPU的开发工作。尽管其收购的Nuvia团队可能已完成部分CPU微架构的基础研发,但一款数据中心CPU从逻辑设计定义到最终量产上市,仍需经历漫长周期:大约需要一年时间完成逻辑设计,至少六个月进行设计实现与流片,后续还需数月时间进行芯片生产与样品测试。综合行业研发规律推测,高通自研数据中心CPU有望在2027年末亮相,而非2028年。这意味着,率先于2026年上市的AI200系统,将大概率采用现成的第三方CPU方案,而选择Arm架构还是x86架构的处理器,成为影响其市场适配性与竞争力的关键变量,也引发了行业的广泛猜测。

高通AI200与AI250的推出,不仅是其自身业务从移动终端向数据中心拓展的重要里程碑,更将加剧全球AI推理加速器市场的竞争态势。凭借Hexagon NPU的技术积累、软硬件协同的完整解决方案以及对成本与效率的精准把控,高通有望在AMD与Nvidia主导的市场中开辟新的增长空间。而其最终能否成功突围,既取决于产品正式上市后的实际性能表现、生态适配完善程度,也与CPU方案选择、定价策略等后续决策密切相关。随着2026年AI200的即将落地,数据中心AI算力市场的格局重塑已箭在弦上。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论