算力快速发展带动散热需求提升,政策导向明确驱动液冷成为标配。伴随算力需求快速发展,处理器计算能力快速提升的同时功耗也显著提升,传统风冷已难以满足散热需求,需要更高换热效率、更节能的液冷技术来满足高功率散热需求。传统风冷的PUE值基本在1.5-1.6,而液冷能够将PUE值做到1.2甚至更低。2019年以来国内政策导向明确建设新型绿色数据中心,明确要求PUE值要做到1.3以下,液冷技术路径有望深度受益。 AI领域蓬勃发展,液冷市场需求未来可期。液冷技术作为一种高效散热解决方案,近年来在数据中心、高性能计算(HPC)和电子设备等高能耗领域中得到了广泛应用。与传统的风冷系统相比,液冷通过冷却液直接传导和转移热量,实现了更出色的散热效果,能够有效支持高密度、高功率设备的稳定运行,并满足日益增长的计算需求和设备的散热要求。根据IDC统计预测,全球AI服务器市场规模将从2022年的195亿美元增长至2026年的347亿美元,复合年增长率达17.3%;2023至2028年间,中国液冷服务器市场规模年复合增长率将达到47.6%,预计到2028年市场规模将增至102亿美元。 冷板式方案是当下液冷方案的主流,浸没式方案与碳氟类冷却液大规模普及仍然需要降本驱动。根据热器件是否与冷却液接触,液冷技术可以分为直接接触式和间接接触式两种。横向比较来看,以间接接触式方案为代表的冷板式液冷技术由于对服务器结构改动需求较小,因此除定制冷板需要一定成本外,在可维护性、空间利用率、兼容性方面均具有较强的应用优势。从冷却液来看,冷板式冷却液现采用乙二醇+水方案居多。浸没式方案中,氟化冷却液由于性能较好,是目前较适合用于数据中心浸没式液冷系统的冷却液,但目前价格仍较为昂贵。我们认为未来氟化冷却液大规模普及仍需要降本驱动。 测算2022-2025年AI服务器液冷市场需求年复合增长率为21.50%。我们测算AI服务器液冷市场规模2023-2025年分别为66.87/ 81.29/ 106.12亿元,其中冷板式方案24.88/28.64/35.37亿元,2022-2025年AI服务器液冷市场需求年复合增长率为21.50%。 投资建议:华峰铝业:公司作为国内铝热传输龙头企业,受下游新能源汽车渗透率提升和单车热传输用铝增长的趋势下持续扩张产能,在生产成本严格把控与复合材料议价能力强的基础上深度绑定下游优质客户,公司业绩未来可期。我们预计2024-2026年公司归母净利润为11.92、13.77、16.79亿元,对应2025年1月23日收盘价PE分别为16/14/12X,维持“推荐”评级。建议关注:银邦股份,东阳光。 风险提示:项目进展不及预期,下游需求增长不及预期。 重点公司盈利预测、估值与评级 1算力发展带动散热需求提升,推动液冷成为标配 1.1算力需求持续增长,散热需求快速提升 算力是AI发展的重要引擎。在人工智能的发展中,“算力”、“算法”与“数据”并称为AI发展的三大基石。算法相当于AI的大脑,是指导计算机执行特定任务的一系列指令的集合,是AI实现智能化处理的基础,从上个世纪以来算法已经历经了从最开始的逻辑推理模型到专家系统到神经网络再到深度学习的多次进化。 数据是AI的燃料,是人工智能系统学习和改进的基础,通过收集、处理和分析海量数据,AI系统能够不断优化模型参数、提升预测准确率从而实现智能化决策和应用。算力,即“计算能力”,是指计算系统(如电脑、服务器、数据中心等)处理信息和执行计算的能力,是人工智能系统实现高效准确处理任务的物质基础。从数据收集、模型训练到推理应用,每一步都离不开强大的算力支持。现代人工智能,特别是深度学习技术,依赖于复杂的神经网络模型,这些模型包含数百万甚至数十亿的参数。训练这样的模型需要强大的计算资源,从而对算力需求大幅提升,只有足够的算力才能使模型在合理的时间范围内完成对海量数据的学习。随着AI技术的不断进步,对算力的需求预计呈现出指数级增长。 图1:2012-2023年著名机器学习模型的训练算力 以ChatGPT为代表的人工智能生成内容催动全球算力规模快速增长。人工智能生成内容(AIGC)又称生成式AI,是指利用人工智能技术来生成内容,包括绘画、作曲、剪辑、写作等。OpenAI在2018年推出的GPT参数量为1.17亿,预训练数据量约5GB,而GPT-3参数量达1750亿,预训练数据量达45TB。在模型训练阶段,根据OpenAI公布数据,ChatGPT的总算力消耗约为3640PF-days。 结合中国信通院和华为GIV公布的数据,2023年全球计算设备算力总规模达到1397EFlops,预计未来5年全球算力规模仍以超过50%的增速增长,到2030年全球算力规模将达到16ZFlops。 图2:全球算力规模及增速 图3:我国算力规模及增速 算力快速提升导致芯片热设计功耗持续攀升,散热需求迫在眉睫。算力性能提升主要通过半导体工艺增加晶体管密度实现,这就导致在芯片制程遵循摩尔定律持续微缩的同时,芯片的集成度在持续提升。高性能计算在执行复杂的计算任务时需要极高的功率,这导致其单位面积内的功率密度显著提升,更高的功率密度意味着更多的热量集中在更小的区域内,这就使得芯片的TDP(热设计功耗)在持续提升。以英伟达Blackwell架构GPU为例,B200功耗高达1000W,GB200功耗更是高达2700W。按照传统的散热经验(风冷),芯片的散热密度存在物理极限,每平方毫米芯片的散热能力约为1瓦,英伟达推出的GPU功耗已经突破了风冷的散热极限,需要更高效的散热方案支持。 图4:AI边缘处理器的功耗和性能 图5:英伟达GPU热设计功耗 过高的温度会直接影响电子元件的性能,散热需求不可忽视。电子元器件使用故障中,有半数以上是由于温度过高引起的。半导体元器件温度每升高10℃,反向漏电流将增加1倍。此外,在高温的环境下,机件材料、导线绝缘保护层、防水密封胶更容易老化,造成安全隐患。对于大量数据中心,由于电子设备集中部署,这种由于过热造成的安全隐患更值得注意,尤其对于在高温下易燃易爆的设备,更易引起火灾等安全事故,引发数据中心瘫痪。另外,大电流的持续作用,还会降低服务器内部电子部件的使用寿命。尤其在高温的环境下,电子产品产生的热量得不到及时疏散,造成了电子产品工作温度升高。电容温度每升高10℃,平均电子元器件的寿命会降低一半,且更容易造成击穿。在这种重负荷状态下工作,会加大电子部件的消耗,从而降低服务器的使用寿命。因此,对服务器尤其是对关键电子部件的散热冷却提出了更加严格的要求。 图6:电子元器件故障分析统计 全球数据中心单机柜平均功率有望快速提升。作为解决计算力的核心支撑,AI服务器既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务,因而算力作为刚需将直接带动服务器的性能快速提升。据CDCC调研统计,2021年全行业8kW以上机组占比约为11%,2022年8kw以上机组占比达到约25%;据Colocation America数据,2020年全球数据中心单机柜平均密度达16.5kW,赛迪顾问预计至2025年该数值有望达到25kW。 图7:2025年全球数据中心单机柜平均功率有望达25kW 风冷散热效率难以跟上数据中心设备散热需求的提升,液冷逐步成为标配。以数据中心为例,采用风冷的数据中心,可以解决12KW以内的机柜制冷。随着服务器单位功耗增大,服务器机可容纳的服务器功率往往超过15KW,风冷系统已经满足不服务器柜的散热需求。以英伟达的机柜设计为例,B200芯片的热设计功耗将达1,000W,GB200 NVL36及NVL72整机柜的TDP甚至将高达70kW及近140kW,传统风冷散热方案不足以满足需求,需要搭配液冷方案方以有效解决散热问题。 图8:机柜功率密度及相应散热模式图 1.2PUE值政策导向明确,液冷技术深度受益 PUE(Power Usage Effectiveness)是衡量数据中心能源效率的重要指标。 PUE的计算方法为数据中心的总耗电量比上IT设备的耗电量,数值越接近1,表明数据中心的能效越高。根据赛迪顾问统计数据显示,2019年中国数据中心主要设备能耗占比中(传统风冷),制冷耗电占比(约为43%)位居第二,仅次于IT设备自身能耗占比(约为45%)。采用液冷可以大幅降低数据中心能耗,提高PUE。 以某液冷数据中心为例,液冷设备取代空调设备,耗能占比仅为9%,数据中心PUE降低至1.2以下。 图9:传统风冷数据中心能耗分布(2019年) 图10:液冷数据中心能耗分布(2022年) 液冷技术路径可实现更低的PUE值。由于液冷数据中心冷却系统采用中高温水即可完成散热需求(一次侧进水温度35℃,二次侧供液温度40℃),可实现全年全地域自然冷却,而传统风冷方式冷冻水机组出水温度需低至15-20℃,在大部分地域、大部分时间段均需开启制冷压缩机才能满足条件,因此液冷方式省去大部分风扇及空调系统能耗,相比传统风冷机房节能20%-30%以上,冷板式液冷PUE低至1.2以下、浸没式液冷PUE低至1.1以下。 图11:数据中心制冷技术对应PUE值范围 宏观政策明确PUE值能效目标要求。各部委相继出台了关于绿色数据中心建设、新型数据中心绿色高质量发展的指导意见。在落实节能降碳方面,政策明确要求到2023年底新建大型及以上数据中心PUE降低到1.3以下;到2025年全国新建大型、超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上。 图12:国家宏观政策梳理 “东数西算”工程的10个数据中心集群都明确了PUE值建设目标,数据中心电能利用效率指标基本都控制在1.25以内。国家层面通过构建全国一体化大数据中心协同创新体系,在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等8地启动建设国家算力枢纽节点,并规划了10个国家数据中心集群,由此我国“东数西算”工程正式全面启动。“东数西算”工程的10个数据中心集群也都明确了起步区建设目标。北京、上海、深圳等地也出台政策,进一步细化落实各地数据中心绿色建设、可持续发展要求和措施。国内各地新建大型及以上数据中心PUE值均要求达到1.3以下;在气候、能源、环境等方面具有天然地域优势的内蒙古和林格尔集群、贵州省贵安集群等则提出更为严格的不高于1.25甚至1.2的指标;北京提出打造建设全球数字经济标杆城市的发展目标,并在绿色节能审查管理中制定不同规模数据中心能耗水平分级管理的措施。 图13:“东数西算”数据中心集群政策梳理 图14:地方政策梳理 2液冷市场蓬勃发展,冷板式方案成主流 2.1液冷技术——AI大规模发展的必经之路 液冷方式具有不受地域气候限制、制冷效率高、服务器无局部热点等优势。在算力持续提升背景下数据中心散热需求也在快速提升,数据中心冷却方式呈现从空气冷却向液体冷却方式转变。在适用环境方面,液冷系统可以实现全年全地域自然冷却;在制冷效率方面,液冷系统可以实现中高热流密度或超高热流密度,显著优于风冷系统;在散热能力方面,风冷系统只能解决15kW以内的机柜散热,且容易产生局部热点,液冷系统可以解决单机柜20kW以上最大可达到单机柜200kW的散热需求,且无局部热点。液冷技术作为一种高效散热解决方案,已逐渐在数据中心、高性能计算(HPC)和电子设备等高能耗领域中得到广泛应用。 图15:几种制冷方式对比 从发展脉络来看,液冷技术普及主要经历几个阶段: 商用初步应用期(1980s-2000年):液冷技术开始尝试进入计算和电子设备领域,但规模有限。这一时期,液冷技术逐渐成熟,冷板式液冷初具雏形,成为高性能计算机、服务器和一些实验室设备的散热选择。 快速发展期(2000年-2015年):进入21世纪后,电子设备的性能和热密度迅速提高,特别是在数据中心和高性能计算领域。这一阶段液冷技术的安装和维护成本逐渐下降,设备逐步小型化、模块化,开始在企业级服务器和