70亿美元,这个区域的液冷市场将领跑全球
70亿美元。
这是分析机构,对北美液冷数据中心市场在2030年前规模的预估。
而2025年,全球液冷市场的总盘子才不过48亿美元。北美一个地区,将在五年内超越今天的全球总量。

原因不复杂,AI烧得太热了。
传统风冷数据中心,每个机架能处理15-20千瓦的热负荷就已接近上限。但AI训练和推理集群的机架功率密度飙升至60-150千瓦,风冷根本散不走这些热量。
液冷系统直接将冷却液贴着GPU、CPU导走热量,把PUE(电能利用效率)从风冷的1.4-1.8压低到1.05-1.15,整体冷却能耗降低30%-50%。
效率差距如此悬殊,技术路线的切换几乎没有悬念。
北美的优势,在于它拥有全球密度最高的超大规模云基础设施。
美国数据中心用电量2023年已达176太瓦时,预计2028年将攀升至325-580太瓦时,其中冷却系统占总电耗的38%-40%。

AWS、微软Azure、Google Cloud、Oracle 正在全美布局多百兆瓦级AI数据中心园区,液冷已不是可选配置,而是基础设施标配。全球液冷市场复合增速(CAGR)预计超过18%,部分机构预测高达25%以上。
市场份额背后,更值得关注的是标准话语权。北美云巨头不只在建数据中心,还在主导制冷协议的标准化进程——从直接芯片冷却(Direct-to-Chip)到浸没冷却(Immersion Cooling),接口定义、测试规范、兼容性协议,都由美国云厂商和芯片厂商联合推进。
谁定了标准,谁就锁定了全球供应链的话语权。
液冷市场的爆发,本质上是AI算力密度突破物理极限的必然结果。北美的领跑地位,是先发投入和标准卡位共同构筑的护城河。
对中国市场而言,这既是追赶节点,也是窗口期。


评论