GIR Allen Chang 团队更新了全球服务器冷却 TAM 预测,指出随着 AI 服务器计算能力提升,液体冷却采用将加速。关键数据及预测如下:
- 驱动因素:AI 服务器 TDP 提升加速液体冷却需求,例如 GB200 AI 服务器机架 TDP 约 120kw,高于 HGX 的 60-80kw。
- 覆盖范围:液体冷却涵盖 GPU 和 ASIC AI 服务器。
- 普及率预测 (2025/26E):
- 机架级 AI 服务器(NVIDIA GB200/300)全部采用液体冷却,预计将有 19k/50k 个机架。
- 基板级 AI 训练服务器(NVIDIA H200/B200、AMD、ASIC)液体冷却普及率预计达 27%/52%。
- 市场规模预测 (2025/26E):
- AI 训练服务器液体冷却 TAM 预计为 38 亿美元/79 亿美元。
- 同比增长分别为 +171%/+106%。