AI数据中心的隐藏成本

来源:半导纵横发布时间:2025-12-29 14:47
数据中心
AI
生成海报
人工智能热潮引发了新的危机。

如今,公共事业公司正难以满足北美史无前例的用电激增需求,早已不是什么秘密。尤为突出的是,新型数据中心对人工智能服务的需求迅猛攀升,进一步加剧了这一压力。新建能源电站、输电线路,再加上日渐老化的燃煤电厂,共同导致用户的水电费账单持续走高。

此外,人工智能热潮还引发了第二个鲜为人知的危机:数据中心冷却所需的海量用水,给许多地区的水资源供应及水利相关基础设施带来了巨大压力。

事实证明,数据中心对能源和水资源的需求在持续攀升,而这两者的增长都源于其所需承担的算力需求不断加大。一座大型数据中心单日的能耗,就相当于 8 万户家庭的总用电量。不仅如此,服务器电子设备的冷却能耗几乎与运行能耗相当,因此该数据中心每天用于防止服务器过热的耗水量,也相当于 5 万人的日均用水量。由此可见,人工智能行业为打造规模更大、算力更强的服务器集群而掀起的激烈 “军备竞赛”,正对环境及承载这些数据中心的社区造成巨大且超出预期的负面影响。

虽然大多数人工智能企业倾向于将这些问题视为技术发展的 “小小代价”,认为其服务所创造的经济效益足以覆盖,但它们却很少将运营所产生的真实经济与环境成本纳入自身的财务核算中。部分企业的透明度有所提升,但从法律层面而言,数据中心并无义务披露其水、电的具体消耗量,这使得其真实影响难以量化。雪上加霜的是,有些数据中心甚至连具体位置都不愿公开。

千兆瓦级的挑战

为了更直观地理解这一问题的严重性,我们不妨参考Element Six的数据:一台典型的人工智能应用服务器通常配备 8 块GPU,每块 GPU 的功耗约为 1500 至 3000 瓦;相比之下,传统服务器所采用的精简指令集(RISC)或复杂指令集(CISC)架构的CPU,功耗通常仅为 100 至 200 瓦,前者是后者的 10 倍。更值得警惕的是,随着GPU和CPU的架构日益复杂、算力不断增强,其功耗也在持续攀升,服务器的整体能耗预计将进一步增加。

CPU与GPU芯片功耗的预期增长趋势

开发人工智能基础设施平台的软件制造商Flex的专家指出,虽然并非所有CPU都会被GPU取代(通常替换比例约为 20%),但人工智能应用呈爆发式增长的算力需求,正推动行业迈入千兆瓦级数据中心园区的新时代。据Flex估算,一个典型的千兆瓦级数据中心园区,大约会部署 2 万个高密度机柜,每个机柜的功耗可达 50 千瓦。

即便是现在,数据中心的能耗已经让许多地区的发电容量不堪重负。例如,得克萨斯州Texas Royalty Brokers针对全美人工智能产业的能耗需求展开调研,旨在找出哪些州的电力供应中,分配给人工智能产业的占比最高。调研结果如下:

  • 印第安纳州的人工智能产业电力占比位居全美之首,该州数据中心的耗电量几乎达到本地发电量的一半。

  • 得克萨斯州拥有最多的人工智能设施集群,数量达 17 个,但得益于其庞大的电网规模,人工智能产业的电力消耗占比仅为全州发电量的 15%。

  • 威斯康星州仅有一处人工智能设施,但该设施的年耗电量高达 1580 万兆瓦时,占全州发电量的四分之一。

要为数千个机柜降温,需要攻克一系列艰巨的热管理难题。芯片算力越强,产生的热量就越多。正如前文所述,一个典型的数据中心,其冷却系统的能耗几乎与服务器运行能耗相当。因此,采用高效的冷却技术,对于降低运营成本和减少环境影响至关重要。

冷却技术

目前大多数数据中心仍采用强制风冷技术,即通过风机将冷空气送入每个服务器机箱。在气候寒冷的地区,则可采用免费冷却技术,无需借助主动制冷系统,直接引入室外冷空气置换机房内的热空气。据Green Grid介绍,这种半被动式冷却技术仅适用于气候凉爽地区的机房。

然而,在大多数地区,强制风冷技术需要搭配换热器运行:换热器通过冷冻水带走机房内的多余热量。目前,市面上的大多数换热器都会配套冷水机组使用,冷水机组先在制冷回路中吸收热量,再将热量输送至一座或多座蒸发式冷却塔中进行散热。

在蒸发冷却过程中,流经冷却塔的水中,约有 80% 会转化为水蒸气散失,剩余的水则会被排入城市污水处理厂。这种冷却方式不仅可能给区域水资源带来过大压力,其产生的大量非常规污水,也极易超出现有污水处理设施的处理能力。

部分服务器制造商已开始采用浸没式冷却技术。这是一种效率更高,但同时也更复杂、成本更昂贵的冷却方案。其原理是将整个处理器板卡浸没在装满介电流体的专用冷却槽中,介电流体可直接吸收芯片产生的热量并将其导出。

水与电的庞大消耗

数据中心的用水来源广泛,既可以是附近的水井、河流、市政供水系统提供的饮用水或非饮用水,也可以是工业废水处理后得到的再生水。在许多冷却系统的运行过程中,很大一部分水会因蒸发而流失,无法再次回收利用。在众多地区,尤其是干旱区域,这种耗水模式会给市政供水系统带来始料未及的压力,同时导致当地地下水位的下降速度远超其补给速度。

为了让大家对这一消耗的规模有更清晰的认知,据估算用户每输入一个 100 词左右的人工智能指令,为冷却处理该指令的服务器所消耗的水量,大约相当于一瓶 500 毫升装的瓶装水。

虽然单看一瓶水的消耗量似乎微不足道,但日积月累之下,总量将十分惊人。全美范围内共有 5426 座数据中心,每年的耗水量高达数十亿加仑。一座大型数据中心的日耗水量最高可达 500 万加仑,这一数字相当于一座人口规模在 1 万至 5 万人的城镇的日均用水量。

人工智能模型的训练过程同样需要消耗巨量水资源,仅微软公司为训练 GPT-3 语言模型,其数据中心就直接蒸发了超过 70 万升的清洁淡水。

需要注意的是,服务器CPU、GPU和存储芯片的冷却需求,只是其环境影响的一部分。在美国,超过半数的数据中心电力由化石燃料发电站供应,而这些发电站本身也需要消耗大量水资源,一方面用于产生驱动涡轮机转动的蒸汽,另一方面则用于冷却发电设备。

2023 年,数据中心的耗电量约占美国全社会总用电量的 4%。但这一比例在未来几年内可能会增至三倍,预计到 2028 年,数据中心的年耗电量将达到 3250 亿至 5800 亿千瓦时。

那么,数据中心的耗电量中有多少是用于人工智能相关功能的呢?据劳伦斯伯克利国家实验室预测,到 2028 年,这一占比可能会达到约 50%。

与电力不同,水资源是无法通过人工生产来增加总量的。联合国环境报告指出,全球近三分之二的人口每年至少有一个月会面临严重的水资源短缺问题。到 2030 年,全球近一半人口可能会遭遇重度水资源压力。

社区与环境承受重压

为了避免在人工智能发展浪潮中 “掉队”,各地政府都在竞相为人工智能数据中心提供所需的资源和基础设施,而上述诸多潜在影响却被普遍忽视。这些决策往往会将隐性成本转嫁给公众,既包括经济成本,也涉及环境成本。

如果最近你发现自家的电费账单金额有所上涨,那很可能是因为你正在为数据中心的建设成本 “买单”。目前,美国已有 41 个州的公共事业费率出现上调,根源就在于公共事业公司急于满足新型数据基础设施的用电需求。此外,据预测,目前在建的许多数据中心,其未来的能耗甚至会超过一些大型城市的总用电量。

公共事业公司正忙于建设新的输电线路和发电站以应对需求增长,而这些项目的大部分成本却被悄悄转嫁给了消费者,而非数据中心本身。这背后的原因在于,数据中心常常会与公共事业提供商签订保密协议,从而得以规避监管机构设定的常规电价。

在美国许多地区,数据中心的大量取水正导致其所在地的水资源日益枯竭。这一现象在弗吉尼亚州表现得尤为明显,该州拥有全球规模最大的数据中心集群。仅劳登县一地,就聚集了全美近半数的数据中心,总占地面积达 4900 万英亩;这些数据中心对市政供水系统和电网的需求正日趋饱和,逐渐逼近不可持续的临界点。

弗吉尼亚州环境保护网络的数据显示,在过去四年间,劳登县的数据中心饮用水消耗量激增了 250%,2023 年的总耗水量更是高达 8.99 亿加仑。与此同时,近期亚马逊网络服务(AWS)的一次宕机事件引发了大范围业务中断,而事故根源正是其位于弗吉尼亚州北部的一座数据中心,这也让公众对数据中心过度集中的担忧再次浮出水面。

类似的危机也正在得克萨斯州圣安东尼奥市酝酿。尽管当地正遭遇长期干旱,但两座数据中心在 2023 至 2024 年间的总耗水量仍高达 4.63 亿加仑。圣安东尼奥水务局已对居民实施限水措施,但数据中心的用水量却不受任何监管限制,即便是在水资源紧缺时期也是如此。

在其他国家,受经济利益驱动、低成本优势及相对宽松的监管政策吸引,数据中心的建设热潮同样兴起,类似的问题也开始显现。例如,智利的环保人士就对人工智能产业发展给阿塔卡马沙漠带来的影响表示担忧。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论