PowerOne,芯片喷淋冷却解决方案

来源:半导纵横发布时间:2025-12-30 14:51
芯片制造
数据中心
生成海报
介于芯片直冷与浸没式冷却之间的冷却方案。

数据中心的电力需求正迅速攀升,机柜功率密度已从标准的 5–10 千瓦 跃升至 100 千瓦以上,甚至 1 兆瓦 的超高密度也已近在眼前。从芯片到冷却机组的全链路供电方案,均需匹配这一增长趋势。业界向 800 伏高压数据中心架构 的转型,正是这一需求的体现,同时还需配套尖端电力电子技术与高性能液冷技术提供支撑。

传统风冷技术已难以跟上发展步伐,而先进液冷方案往往需要大规模基础设施投入,这是老旧数据中心难以承受的。近日,Airsys Cooling Technologies推出了一种新的冷却方案,即PowerOne 冷却系统。

Airsys PowerOne 冷却系统的核心亮点,是其独创的喷淋冷却解决方案。该方案介于芯片直冷(DTC)与浸没式冷却之间,无需额外配置独立的冷却液分配单元(CDU) 与压缩机,实现了基础设施的集约化部署,同时能释放更多冗余电力资源。

如图所示,PowerOne平台面向全类型数据中心设计,覆盖边缘数据中心、托管数据中心、企业级数据中心乃至超大规模数据中心,可提供 1 兆瓦至 100 兆瓦以上 的可扩展冷却能力,以匹配不同规模的算力负载需求。

该平台提供两套核心解决方案:第一套是面向芯片直冷的单相冷却方案,配备冷却液分配单元、风墙及冷水机组;第二套则是上述独创的喷淋冷却替代方案。

技术路径

Airsys喷淋冷却系统直接向芯片喷射冷却液(即绝缘液体),省去了传统液冷所需的冷板部件。

受热后的冷却液回流至板式换热器,将热量传递至水路循环系统,随后由 干式冷却器 将热量释放至大气中。Airsys PowerOne 业务副总裁Tony Fischels对该技术做了进一步详解:“这是一款可无缝升级至浸没式冷却的产品,但冷却液全程被封闭在机柜内部。”在标准冷水温度条件下,该系统支持的机柜功率密度最高可达 170 千瓦。

Fischels解释道:“你可以把浸没式冷却想象成‘泡澡’,服务器完全浸泡在绝缘液体中;而我们的 LiquidRack 更像是‘淋浴’,同样使用绝缘冷却液,但仅针对芯片进行精准喷淋。”

每个液冷机柜内置 10 个独立冷却盒,每个冷却盒均配有专属泵体与换热器。冷却液直接喷淋在芯片表面,随后汇入集液槽,经回收后重新注入系统循环使用。

核心优势

喷淋冷却方案的一大核心优势,在于大幅精简了冷却基础设施,整套系统仅需配置 LiquidRack 液冷机柜与干式冷却器。由于无需压缩机,也就不再需要额外部署冷却液分配单元或储热装置。这一点对于需改造以承载人工智能负载的老旧数据中心尤为关键,毕竟这类数据中心往往面临空间资源极度紧张的问题。

Fischels指出:“单相芯片直冷技术通常适用于中小型数据中心(功率<5 兆瓦)向大型数据中心的扩展,这类新建或改造难度较低的设施更容易完成升级;而那些依赖传统风冷技术的老旧数据中心,往往没有足够空间进行大规模改造。”

取消压缩机还能有效释放冗余电力资源,数据中心既可将这部分电力分配给算力设备,也可缩减整体供电基础设施的规模。在北方地区,压缩机的设计功率通常需满足夏季极端高温工况,但在一年中其余大部分时间里均处于闲置状态。然而,数据中心的整套供电基础设施包括发电机、开关柜、配电系统等,都必须按照压缩机满负荷运行的峰值需求来建设。

Fischels表示:“移除系统中的压缩机后,我们就能释放出那些仅为应对夏季极端高温而预留的冗余电力。” 数据中心可将这部分富余容量分配给算力设备,或直接缩减供电基础设施的建设规模。

落地场景

喷淋冷却技术在液冷技术谱系中占据独特定位。其散热性能优于风冷技术,同时省去了芯片直冷系统必需的冷却液分配单元。该技术可支持 170 千瓦的机柜功率密度,虽略低于可承载 200 千瓦及以上密度的浸没式冷却方案,但足以满足多数应用场景的需求。

对于空间受限的老旧数据中心而言,其基础设施占用空间更小的优势极具吸引力;而新建数据中心则可根据自身需求,在不同技术方案的利弊间进行取舍。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论