维持行业“增持”评级。随着AI大模型训练/推理及端侧应用带来的算力需求激增,以字节、阿里为代表的互联网巨头及三大运营商持续加大资本开支,带动数据中心规模化建设提速。作为数据中心关键基础设施,暖通行业正形成传统风冷需求稳健增长与液冷技术加速渗透的双轮驱动格局。推荐标的英维克、高澜股份; 受益标的曙光数创、申菱环境。 受益数据中心需求增长,冷机压缩机行业景气度上行。数据中心暖通的方案包括风冷、水冷以及液冷。冷水机组压缩机作为数据中心室外侧的机械制冷的核心设备,无论是传统的冷冻水水冷、渗透率快速提升的液冷还是间接蒸发冷、氟泵等风冷方案,都需要使用/备用冷机压缩机。从全球头部的四家冷机压缩机企业江森自控、特灵、开利、大金的财报数据中看,数据中心行业显著推动了冷水机组的需求增长。预计未来2-3年内冷机压缩机将逐渐出现供需紧张。 数据中心算力与能耗逐渐超出风冷散热阈值,液冷渗透率提升已成趋势。随着高算力芯片热功耗的持续攀升,传统散热方案面临效能瓶颈,液冷技术的规模化应用趋势已成必然。当前技术演进呈现差异化路径:单相冷板凭借与现有基础设施的高度适配性及成熟的部署经验,正快速确立主流地位;而浸没式方案虽在散热效率维度具备理论优势,但受制于改造成本高企和生态兼容性挑战,在中短期技术迭代周期内难以突破工程化应用瓶颈。在芯片热设计未发生颠覆性变革前,单相冷板凭借更加成熟的技术方案以及更低的成本优势都将会成为液冷市场中的技术路线。 催化剂:数据中心建设加速,高TDP芯片推出 风险提示:芯片供应不足导致数据中心建设不及预期;行业竞争格局恶化;国际贸易摩擦的风险 1.投资建议 维持“增持”评级。AI大模型训练/推理及端侧应用爆发驱动算力需求持续高增,以互联网巨头及运营商为主导的资本开支扩张推动数据中心向高密度、规模化迭代升级,带动暖通行业形成传统风冷稳健增长与液冷技术加速渗透的双轮驱动格局。由于新建机房对于PUE的要求逐渐严苛,风冷的间接蒸发冷以及氟泵等更加节能的方案成为风冷方案中的主流;而制冷侧核心设备冷水机组压缩机因数据中心建设需求激增,叠加全球头部厂商(江森/特灵/开利/大金)产能扩张滞后,预计未来2-3年供需缺口逐步显现。液冷作为冷却性能更好的技术方案,在芯片TDP快速增长的趋势下,液冷的渗透率也将快速提升。重点推荐液冷全链条布局的英维克、高澜股份;受益标的包括曙光数创、申菱环境。 表1:重点公司盈利预测及估值 2.以智算中心为主的数据中心产业快速发展 2.1.数据中心分为三类:云计算数据中心、智算中心、超算中心 云计算数据中心指以软件定义方式提供基础架构设施服务、以SaaS方式提供应用及数据服务的新型数据中心。云计算数据中心主要用于处理数据密集、通讯密集的事务性任务,广泛应用于各行各业,尤其是需要快速响应时长变化的领域。云计算基于互联网的相关服务的增加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且经常是虚拟化的资源,将云计算与数据中心有效结合实现了优势互补。云计算数据中心具备高设备利用率、绿色节能、高可用性和自动化管理的特征。 图1:云计算数据中心 智算中心受益于AI大模型对于算力的需求而快速发展。人工智能带来的算力需求迅速上升后很多互联网企业如字节、阿里等开始投资建设更大规模智算中心。智算中心的耗电量相较云计算数据中心更大,耗电量为传统云计算中心的十倍以上。在未来AI大模型带来的训练以及推理侧的需求以及端侧应用带来的算力需求的增加会使得智算中心的建设不断增加,智算中心将成为我国数据中心增量中的主要组成。 图2:智算中心总体架构 超算中心侧重于科学计算等计算密集型任务,面向科研人员和科学计算场景提供支撑服务。超算中心具有极高的计算速度和精度,主要提供国家高科技领域和尖端技术研究需的运算速度和存储容量,包括航天、国防、石油勘探、气候建模和基因组测序等。超算集群逻辑上是集中式的,针对计算密集型任务更强调并行计算以获得高性能,各节点任务存在前后的依赖,节点之间数据交换的延迟要求非常高。目前超算中心的主要客户包括国有背景的重点工程和技术研究所、创新业务如大数据、AI、视频渲染等互联网公司、高校实验室等三类。 表1:数据中心分为云计算数据中心、智算中心、超算中心三类 2.2.传统云计算较为饱和,智算算力需求推动智算发展 传统的云计算数据中心目前已经较为饱和。2010年开始,传统服务器托管、机架租赁等IDC服务形式逐步被云计算取代,对大规模数据中心承载提出更大需求,IDC市场持续高速增长。根据智研咨询的数据统计,2010年我国IDC市场总规模为102.2亿元,2020年达2238.7亿元,同比增长43.28%,2010-2020年我国IDC产业复合增长率为36.16%。大量客户开始要求引入云计算,集群化建设、虚拟化和云计算需求旺盛。市场供给侧呈现运营商、第三方、跨界方多主体竞争格局,服务形态转变为相对集中的大型云数据中心。2020年以后,云计算、大数据、AI等新数字技术的加速发展,驱动数据云存储及计算、智能算力、边缘算力等需求持续增长,需求向“云计算大型、超大型IDC+智能计算本地化中型数据中心+边缘计算小微型IDC”三级转变,规模化智算与行业智算并行的需求特征显现。目前传统云计算数据中心仅在“东数西算”规划的一些西部地区,例如甘肃、内蒙古等地,有增量的建设,一部分是为了把一二线城市的金融、互联网以及通信等行业中对于时效性并不是很敏感的冷数据转移到西部,另外还有一部分是在西部建设灾备机房的需求,由于通用计算算力的增长有限,而存量还有较多的未被消纳的云计算的数据中心资源,未来云计算数据中心将不会有较大规模的增长。 图3:2023年中国IDC市场规模达5338.8亿元 图4:“东数西算”工程布局 智算算力需求快速增长,推动智算中心建设。人工智能带来的算力需求迅速上升,很多互联网企业,如字节、阿里等,开始投资建设更大规模智算中心。智算中心在中国计算设备算力中占据比重不断增加,根据CIDC的数据统计,2016年智算算力占总算力的比例仅为3%,2022年占比为21.85%,2023年已经提升至了36.81%,。智算算力的增长推动了市场规模的快速增长,2020年智算中心市场规模仅为323亿元,2020-2023年市场规模不断增加,2022年生成式人工智能大模型推向市场,在国内引起AIGC发展热潮,大模型训练对智能算力的需求迅速攀升,到2023年中国智算中心市场投资规模达到879亿元,同比增长94.04%,2020-2023年复合年增长率达到39.61%。预计2024年国产化芯片产能提升,智算算力供给瓶颈将逐渐缓解。 未来,AI大模型应用场景不断丰富,商用进程加快,智算中心市场增长动力逐渐由训练切换至推理,市场进入平稳增长期,复合增速降低到26.8%,预计到2028年中国智算中心市场投资规模有望达到2886亿元。 图5:中国智算算力迅速增加 2.3.互联网企业及云厂商成为智算中心布局的主力 从智算中心算力规模来看,互联网及云厂商在智算中心投资建设中占据重要地位。科技巨头在人工智能计算中心的建设中扮演重要角色,许多大型科技公司如阿里巴巴和腾讯,都在人工智能计算中心投入大量的资源。以算力规模来看,互联网及云厂商占据了30.9%的算力中心布局,其次为运营商,占比为23.2%。不同主体的智算中心功能定位及布局诉求存在差异。政府主导建设的人工智能计算中心主要服务于地方人工智能大模型研发应用及相关领域数字化转型,基础电信运营商投资建设的智算中心成为政府算力基础设施的良好补充,承担国家算力网络建设任务的同时满足自身算力需要及算力业务拓展需求。大型云厂商如腾讯云、阿里云、百度云等,具有完善的供应链资源、扎实的技术能力以及丰富的客户资源,出于满足集团AI发展需求及云业务拓展考虑,建设智算中心。此外,浪潮、协鑫等产业上游供应商,商汤等AI科创企业,理想、小鹏等下游应用企业等基于产业链价值延伸和日常业务需要布局智算中心。互联网及云厂商建设的智算中心规模较大,多为万卡集群,智算中心具备大规模、可扩展性、绿色化等特征,满足互联网及云业务长远发展需求。AI大模型所带来的算力需求的快速增长使得互联网云厂商将逐渐成为国内算力中心布局的绝对主力。 图6:互联网及云厂商为智算中心布局的主力(包含运营/在建/规划项目,以算力规模统计,截至2024年10月) 智算中心服务包括机房托管服务、算力租赁服务、AI平台服务、模型定制服务及AI应用服务。机柜托管以及算力租赁服务是当前智算中心市场的主流商业模式。在产业发展初期,智算中心一般为算力用户和传统IDC客户提供机柜托管服务,机房托管服务与传统数据中心服务模式类型相同,但需要面向智算的特点进行深度定制。算力用户的服务器由用户自行解决,这类用户多为云厂、AI企业、高校或科研机构,通常单次采购规模较小。智算算力租赁业务的兴起一是由于短期内智算资源供给能力不足,特别是以GPU为代表的AI芯片的紧缺;二是自建智算中心投资规模大、运维能力要求较高,算力使用综合成本高。大多数中小企业在发展AI模型和应用的过程中面临算力瓶颈,算力租赁业务迎来发展机遇。在租赁的算力中,约80%被用于大型模型的训练,约20%则用于小模型的训练和推理任务。在区域分布上,60%的智算需求集中在北上广深一线城市。 表2:IaaS是当前智算中心市场的主流服务模式 3.乘“数”而上,暖通行业借势腾飞 3.1.传统数据中心冷却包括风冷以及水冷 作为传统的散热方式,风冷系统通过空气流动带走热量。在AI智算中心出现以前,风冷系统广泛应用于传统数据中心的制冷方案中,液冷只在超算中心中有所应用。风冷系统在机房内用空气媒介制冷,在室外以风冷式和水冷式两种冷水机组带走空气中的热量。2012年以前,早期运营商、金融、互联网等机房规模较小,以风冷直膨式精密空调为主,先冷环境,再冷设备,气流组织较差,各自控制互相干扰,整体能效非常低,PUE在1.8-2.5之间。 2012-2018年,运营商、互联网、金融、第三方运营公司开建大型及超大型数据中心,冷源采用集中式水冷冷水空调系统为主,通过冷却塔、板换进行自然冷却运行;缺水地区采用集中式风冷冷水空调系统,配套自然冷却功能; 结合多种末端使用,如房间级空调、列间空调、冷板空调、背板空调等,整体能效得到较大提升,PUE在1.25-1.5之间。2019年开始,国家和地方密集出台相关政策,新建大型、超大型数据中心PUE要求先从1.4到1.3再到1.25、1.2,示范型绿色数据中心PUE要求1.15,出现蒸发冷、液冷等多种新制冷系统。未来新建的数据中心 表3:风冷系统通过空气流动带走热量 数据中心冷却市场空间逐渐增加。数据中心的冷却是保证数据中心安全稳定运行的关键环节,随着数据中心的数量的快速增加,数据中心冷却的市场空间逐渐增加。根据Horizon的数据统计,2020年数据中心冷却的市场空间仅有30亿美元,但到了2023年已经上升到了44亿美元,预计2030年数据中心冷却的市场空间将上升到88亿美元。数据中心冷却市场的景气也将为相关设备以及服务供应商带来更多产业机会。 图7:数据中心冷却市场空间快速增加 3.2.低PUE要求使得风冷技术不断迭代 3.2.1.间接蒸发冷,新建风冷数据中心的首选 随着数据中心对于PUE的要求逐渐提高,间接蒸发冷的渗透率逐渐提升。 在蒸发冷却过程中,水在空气流中蒸发,并从液相变为气相,来自周围空气的显热在该过程中用作蒸发水所需的潜热——空气中的能量损失导致空气温度降低。这种冷却方法可以使用比典型制冷过程少得多的能量来降低空气温度,由于能耗低,其在炎热干燥的气候中非常流行。蒸发冷却技术分为直接蒸发冷和间接蒸发冷两种。直接蒸发冷却是指冷却介质直接与被冷却物接触,通过水的蒸发来吸收被冷却物的热量,从而实现冷却的过程。间接蒸发冷却则是指室外空气先经过直接蒸发冷却,降低温度后,再通过换热器与需要冷却的室内空气进行热交换,从而实现室内空气的降温,同时室内空气的湿度不变。直