2026年05月07日机床设备 证券研究报告 AI算力散热新革命,液冷加工设备新蓝海 投资评级领先大市-A维持评级 液冷成为数据中心散热首选方案,市场规模快速提升: 全球数据中心正进入以AI为核心的新一轮基础设施重构周期,数据中心功耗密度的不断攀升对散热系解决方案提出更高要求,液冷技术逐渐成为下一代数据中心的标配选择。根据Omdia,2024-2030年全球数据中心资本开支复合增速有望达到13%,包括冷却在内的配套保障系统投资增速或达到18%。我们预计,2030年全球新建数据中心液冷系统市场规模有望超过500亿美元,2026-2030年复合增速22%,液冷有望成为数据中心基建侧具备较高确定性的中高速增长市场。 首选股票目标价(元)评级 冷板式方案应用占比高,液冷板、快接头带动机床和3D打印加工需求: 冷板式液冷技术成熟、改造成本低,是数据中心应用最广泛的冷却方案。其中,冷板和快接头是冷板式液冷系统二次侧的特有组件,根据头豹研究院,两者在英伟达GB300机柜的冷板式液冷系统价值量占比分别达到34%、15%。高功率机柜的冷板、快接头机械强度要求高,高精密的CNC机加工是目前的主流方案,其中冷板主要涉及数控铣床、钻孔机、攻牙机以及铲齿车床等设备,快接头主要涉及纵切自动车床以及钻镗铰复合工艺。另外,3D打印可消除冷板焊点和物理缝隙,在液冷板加工方案中的占比有望持续提升。 朱宇航分析师SAC执业证书编号:S1450525100003zhuyh1@sdicsc.com.cn 液冷部件制造商增大资本开支,拉动相关加工设备采购需求: 从产业链龙头营收表现与资本开支动向来看,依托AI算力高密度散热刚需,国内外液冷行业已全面迈入高投入发展阶段,且产能布局、技术研发的投入节奏持续加速,Cooler Master、Vertiv、奇鋐、申菱环境等海内外头部企业继续扩张产能。企业重点布局液冷CDU、散热冷板、歧管、铜排等核心零部件产线,补齐产业链关键产能缺口。液冷核心部件对加工精度、工艺标准要求极高,头部企业集中扩产,将持续催生精密加工设备批量采购需求。 欧阳天奕联系人SAC执业证书编号:S1450125110004ouyty@sdicsc.com.cn 相关报告 投资建议: AI算力快速膨胀带动数据中心功耗密度不断攀升,液冷取代风冷成为数据中心冷却系统首选方案。冷板式冷却方案应用占比最大,液冷板、快接头等高价值量环节的加工需求有所增加,对加工设备的精度、效率和稳定性提出更高要求。减材工艺路径方面,我们建议重点关注乔锋智能、津上机床中国、纽威数控、创世纪,同时建议关注海天精工、科德数控等。增材工艺路径方面,我们建议重点关注铂力特、南风股份、江顺科技、华曙高科等。 风险提示:产业发展不及预期;技术路线更替;行业竞争加剧。 内容目录 1.液冷成为数据中心散热首选方案,市场规模快速提升.............................31.1.数据中心机柜散热需求持续提升,液冷成为首选方案.......................31.2.全球AI CAPEX有望高增,驱动数据中心液冷市场快速发展..................62.冷板式方案占比高,零部件制造商提高CAPEX带动加工设备需求...................72.1.冷板式液冷方案应用占比高,单项冷板式方案增速更显著...................72.2.冷板和快接头价值量占比高,机加工和3D打印走向高精密化................82.2.1.液冷板加工:CNC为主流方案,3D打印占比有望提升..................92.2.2.快接头:走心机为核心加工设备,车床与车铣复合中心需求有所提升...112.3.液冷部件制造商增大资本开支,拉动相关加工设备采购需求................133.投资建议:重点关注在数据中心液冷系统负责CNC机加工或3D打印类的公司........144.风险提示..................................................................15 图表目录 图1. AI整机柜功耗持续提升....................................................3图2.数据中心温控系统技术路线演进过程........................................4图3.数据中心制冷技术对应PUE值范围..........................................5图4.不同机架功率密度风冷、液冷投资成本对比(以2MW数据中心为例)............5图5.全球云基础设施服务支出额(十亿美元)及增速..............................6图6.包括冷却在内的配套保障系统投资增速或更快................................6图7.液冷系统通用架构........................................................8图8.数据中心液冷系统结构件图例..............................................8图9.冷板式液冷各环节价值占比(英伟达GB300液冷机柜为例)....................9图10.液冷系统核心零部件毛利率(以50kW通用型机柜为例)......................9图11.冷板加工工艺流程及所需机加工设备.......................................9图12.铲齿散热板加工优势....................................................10图13.快接头加工工艺流程及所需机加工设备....................................12图14.快接头是液冷系统管路连接与热插拔的关键零部件..........................12图15.盲插快接头更适合高密度的数据中心......................................12图16.液冷快接头所需加工设备................................................13图17.中国台湾主要液冷部件厂商总收入(亿人民币)............................13图18.中国大陆主要液冷部件厂商总收入(亿人民币)............................13图19.中国台湾主要液冷部件厂商资本开支(亿人民币)..........................13图20.中国大陆主要液冷部件厂商资本开支(亿人民币)..........................13 表1:英伟达新一代芯片功耗进一步膨胀.........................................3表2:国内数据中心PUE建设要求不断变严格.....................................4表3:全球新建数据中心液冷系统市场空间测算...................................6表4:不同液冷技术路线工作原理及结构对比.....................................7表5:不同液冷技术路线对比...................................................8表6:3D打印技术可以更好地满足冷板散热需求,未来使用占比有望提升............10表7:Fabric8Labs推出的电化学增材制造技术可以实现高效的局部强化冷却.........11表8:近期国内外多家液冷零部件制造商宣布扩产规划............................14表9:液冷加工设备核心公司估值表............................................14 1.液冷成为数据中心散热首选方案,市场规模快速提升 1.1.数据中心机柜散热需求持续提升,液冷成为首选方案 AI算力需求快速膨胀,数据中心功耗密度不断攀升。AI芯片(如GPU和TPU)是高性能计算的核心引擎,芯片集成度地提升导致其单位面积内的功率密度大大高于传统处理器,意味着更多的热量集中在更小的区域内,其功耗和发热量显著高于普通CPU。以英伟达为例,其下一代Rubin/Rubin lutra芯片功耗从GB300 (Ultra)的1400w提升到2000w以上。并且,随着大模型训练、多模态AI推理等智算场景普及,单机柜功率已从传统数据中心的2-10kW提升至智算中心的30kW以上。根据Vertiv投资者交流资料,行业平均机架密度预计从2024-2025年的15-25kW上升至2028-2029年的50kW以上,甚至AI峰值机架可能超过900-1000kW,进一步加剧数据中心的散热需求。 传统风冷技术正逼近其散热效率的极限,液冷方案逐渐成为下一代数据中心的标配方案。 芯片层级:根据中国信通院《智算中心液冷产业全景研究报告(2025年)》,当芯片功率超过300W时,传统风冷系统散热能力便已失效,芯片热失控风险急剧升高。液冷技术利用液体比热容高于空气的优势,通过与发热元器件紧密结合,实现对芯片精准散热。 机柜层级:根据Vertiv《智算中心基础设施演进白皮书》,房间级风冷空调远端送风型式的散热能力上限为单机柜25kW,当单机柜功耗超过25kW时,房间级风冷空调很难满足服务器的散热需求。对于单机柜功耗在25~80kW的高密度散热需求,可采用列间空调、背板式风冷、薄板风墙等近端送风或冷板液冷技术,其中液冷技术因具有高效散热、低能耗、低噪声、占地面积小等突出的优势,成为智算中心制冷系统的优先选择。 政策明确PUE能效目标,液冷技术路径更符合产业趋势。 PUE(PowerUsageEffectiveness,电能使用效率)是数据中心总能耗与IT设备能耗的比值,越接近1越节能,是衡量数据中心能效的核心指标。以国内政策为例,数据中心PUE要求逐渐向精细化管控演进,根据2024年国家发展改革委等部门印发的《数据中心绿色低碳发展专项行动计划》,到2025年底新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。 对比风冷来看,液冷技术路径可实现更低的PUE值,符合产业发展要求。由于液冷数据中心冷却系统采用中高温水即可完成散热需求(一次侧进水温度35℃,二次侧供液温度40℃),可实现全年全地域自然冷却,而传统风冷方式冷冻水机组出水温度需低至15-20℃,在大部分地域、大部分时间段均需开启制冷压缩机才能满足条件,因此液冷方式省去大部分风扇及空调系统能耗,相比传统风冷机房节能20%-30%以上。 资料来源:中兴通讯《液冷技术白皮书》,国投证券证券研究所 液冷技术可高密度部署,降低数据中心投资成本。相比风冷,液冷技术路径的布局更加紧凑,通过减少IT机架、机架PDU数量以及机架上用于支持布线的结构以缩小空间,同时节省建筑围护结构、消防、照明等系统投资,进而可以节省数据中心冷却系统整体初始投资,这一优势在机架功率密度提升时更加显著。根据施耐德《大型数据中心浸没式液冷与风冷投资成本分析》,以2MW的数据中心为例,功率密度为10KW/机架的风冷数据中心、液冷数据中心建设成本分别为7.02美元/W、6.98美元/W,机架功率密度为20kW/机架、40kW/机架的液冷数据中心建设成本分别只需要6.33美元/W、6.02美元/W,相比传统风冷方案分别节省10%、14%的投资成本。 资料来源:施耐德《大型数据中心浸没