电力设备与新能源行业研究一AIDC系列深度(二)务器涅度争升高10'C,设务可靠性和寿命就会降低50%,因此印使是板短的市断或失效,电可能导改运其效率降低、硬件损环成者数据丢失,进而导效数据中心停诺,几平等年部有数诺中心因制冷系统故择导致服务中断。算力需求与双碳目标共举,冷方案有望加速渗造:模等均大幅提升,单芯片未看,以海外企业美作达为例,BlackweII架构下的三代芯片或大热设计功至(TDP)随着算力提升大情管大:系统美成来套,国内华为910C/CM384果构算力及系统总均运超美伟达GB200/NVL72采构,险标要求逻年提高,图部表联合投出到2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家柜险求,可实现更低PUE的液冷方案在数据中心的应用渗造率有望加速提升,歧管manifold、快接头UQD、管路等也是建立二次侧回路的核心零部件,且根据系统集成商及机柜内的设计结构不同,没冷两制司路及其零部件方案定制化程度较高,“液冷服务器+液冷机军+CDU+二次例管路”--体化交付成为当前的主商;2)高价值量/固产化率较低的期分环节零部件供应南。算方需求不及预期:总片供应能力不及频期:国除贸易序擦风险:行业竞争加别风险。 投资逻辑:要模式。投资建议风险提示 内容目录2算力高求与双碳目标共举,准冷方害有望加速渗透2.1高求层面:智算中心催生高算方芯片,系统级动耗大幅提高2.2政策层而:数据中心PUE指标趋产,老旧存量项月面而临关伴,3液冷技术路践及零部件持解:以核心零部务为基总,迈向一体化交付大规模及存量数据中心改造主流方案3.2.1冷量分配单元CDU:冷板式液冷系统的“心照二次侧结构更加简单,冷却液选择是关链,4.1英绑克:精密湿控方案龙头,全链条凌冷开剑者.4.2中菱环境:深辨工业特种空调额域,前瞻布局数据中心温控产品,4.3同飞股份:工业温控综合解决商,提供多路线、预制化数据中心液冷会套方案4.4高润股份:炼合性纯水冷却设备企业,涉证式技术先行者4.5科创新源:高分子与热理系统领导者,数据中心设热业务布局扩大,4.6川环科技:液净管路卡位龙头供应链,近出回产势代第一步4.7飞龙股份:汽车热管理部件领军金业,载据中心电子水泵产品逆放量。4.8飞荣达:资深热管理材补专家,液冷散热技术领先,,图表目录图表1:关国采暖、制冷与空调工程师学会(ASHRAE》多次调整数据中心极限温/湿度范图英伟达系列芯片功耗殖着算力逐代提升。 1冷却系流:数据中心的“体温”调节中框668103.1冷板式液冷10113.2.2冷板:二次侧热交接的"起累”133.2.3冷源:一次制冷量供息“上游”3.2.4其他核心客部件:定制化程度较高,163.2.5--体化交付为当前主要模式.193.3液式液冷203.4响游式液冷定点高效散热方案224投资建议,23242526. 2728285风险提示5图表2:款据市心湿控放障事作汇总67图表4:华为910B对标笑伟达H20准能优异,图表5:华为CM384系统算力优于英伟达NVL72.图表6:不同冷如技求对应的机距功率...B 图系7:固家居面对教据中心能效要求渠年提高8图表8:各咨市对PUE不符合要求的数据中心提出改造,退出等政策,9围表9:PUE与冷却方式对应表9图表10:大规模智算中心或存量改浸造宜采用冷板式液冷技术10图表11:液冷系统通用架构原理图11图表12:CDU通过换热器实现热量传递,通过永采完成二次侧循环图表13:间隔式液-液染热器美型丰寓,12图表14:风-液换热器连接二次侧液冷,一次侧风冷图表15:集中式CDU适用于液冷大规模部需的数据中心图表16:冷板结构精截而。图表17:两相冷板能为所有热源获供均约的冷却图表18:不同温度要求下液冷密型,,14图表19:自然冷却系统不同选型工作示高图..15图表20:风冷冷水机组通过空气带定冷数器热量,15图表21:水冷冷水机组通过循环水带走冷凝器热量15图表22:xAIColoSSus兼预白然冷源和机减冷源。16图*23;冷源形式过择需安考忠进液温度和当地资源16图表24:manifold运行示意图..16图表25:华为 Atlas 9CO A2 PoD Manifold与 NVIDIA MGX 44RU Manifold 形态不河17图表26:一对快接头由孕头和公头组成17图款 27;言摘快接头对接时允评误差17图表28:情式快接头在可靠性、可维护性,可安表性、架构演进性上依现出优想性18围表 29:华硕茂供的NvidiaGB200NVL72液冷方案中服务器内部站构.18图表30:不同类型的管路对比..19图表31:冷板式液冷冷却液过择,图表32:液冷系统交付方主要分为3种20表 33:当前数据中心建设倾向择液冷系统一体化交付方式,20图表34:没式液冷二次侧核心部件为TANK,冷却液和CDU.21图表35:油类冷却液热导率高,氯化液蒸发潜热大,21图表36:汕没服务器6个月后,表明褪色明显,可董性暂无显著影响。22图表37:其型的喷涨波冷机柜方案。22图表38:2024年营业收入46亿元,周比+30%23图表39:温控节能设备销售妆入占比不断提高,图表40:Coolinside全链杀液冷解决方案.24图表41:2024年营业收入30亿元,周比+20%, 图系42:2024年教据服务业务增,同比+76%24图表43:中菱环境智算中心全栈解决方案2.0..25表44:2024年营业收入22亿元,月比+17%25图表45:孕度毛利率、净利单逐步修复25图系46:同飞股份数据中心温控整体解法方案26图表47:公司产品活益CDU、TANK、冷却塔等多种部件.26图表 48:2024年高功率密度装置热管理产品收入占比提升27图表49:公司数据中心相关项目处于验证价我,27图表50:公司管路产品种类车富,满差车用和数据中心液冷管路28图表51:2024年营业收入14亿元,同比+23%28图表52:2024年归学净利润2亿元,月比+25%28图表53:2024年营业收入47亿元,月比+15%,29图表54:2024年冷动部件销逢298万只,同比+28%. 29图表55:公司产品覆益不同功率需求29图表56:公司服务器热管理相关产品图表57:2024年营业收入50亿元,月比+16%31图*58:公司主营业务为热管理、电联解藏对料及器件 1冷却系统:数据中心的“体温调节中枢如同人类依靠皮跌调节体温,冷却系统是数据中心调节湿度和湿度的主要“器官",一个标准的数据中心内三个主要部分组成:1)信息技水(1T)设务:功能项:2)冷却系统:防止致据中心热失控并保持IT设务温度适宜;3)配电单元:同时为冷却基础设施和IT资件续电,在将理学中,“电”和“热”往往相伴而生,其本质是能源守恒定律下,电流做动(电能)转化为热能,基本上载据中心消耗的所有电量都会转变成热量,功耗越大,产生的热量越当一定数量的CPU、GPU微集成以机柜或素效据中心的洗模同时教热时,还会导改密阅空间的资语中心内部环境升温,对于致据中心而言,可靠性和正常运行时间是首要关注点,其市电子设备的安全较大程度取法于稳定的空气温度和相对湿庭,制冷系统一旦中断,只能通过载裙中心内部空气、IT设务和建筑图护结构吸然,这将进一芝加重IT设各的最蓝负担:实践表明,数据中心服务器温度每升高10'C,没备可靠性和寿分就会降低50%,固此单使是很短时间的中断或失或,电可能导致运算效率降低、硬件预环或者数据云失,适而导致致据中心停据,图表1:美国采整、制冷与空调工程师学会(ASWRAE)多改调整载据中心极服温/逐度范图20112015年逐度范国(无练露)-5.5'C雾点15'C;-9℃点15℃相对望度≥60%拓对还成60%免许随图20%板对湿层80%12C<8点<17℃8%格对证度80%-12℃<8点<21℃20%80%8%相对温质80%12'C<家点:-12C<降点<24℃%心相对深成心85%%心相对理度心65%12℃心%点:-12℃<8点<24℃%心相对证度心90%8%心相对湿度心90%8%80%8℃28℃拍对湿度<80%83期对2准80%8C<点<28℃C格对湿度<80%过去儿年,国制冷系统故使手致的数据中心服务中断事年都有发生。2018年德州雷票导致数软AzureSouthCentraluS机房冷却停探,数软只得断电保护,区成内全部云服务先后高线,全球依激该区的活动目录、开发运维等业务恢复历时途24小时:2022年英图极端热浪中,论敦地区的GoogleCloud数据中心机房多路究余制冷同对要工,谷歌被连关闭服务器以防过热,导致英,美等地众多在线服务接连源滨数小时:2023年3月,广州电信教据中心的-一次冷却改降同择让机房温度双升,跨讯旗下业务微信、及其支付体系在高峰时投集体离线,被宫方定性为“一级事故”。 2021年-9C点≤15'C;相对湿度70%(当有污染时常<50%)12'C点17C:8%心相对理度心80%-12C录点≤21'C:8%心相对湿度心80%12°C点24'C:8%心相对理度心85%12℃≤豫点≤24℃:8%心相对湿度心90%8C察点≤28'C;扣对源员<80%B'C2BC:格对军度60% 2算力需求与双碳目标共举,液冷方案有望加速渗透20%以上,虽然风冷在存量市场仍占主乎地位,但在算方需求提升、节能减排的社会目标下,液冷正在成为芯片/机架级冷却的主流解决方案。一方面,芙伟达载新发布的GB3000EN/0DN供应商势末用全冷方家:苏-一方询,2024年7月自四部委发布的《数据中心绿色低碳发展专项行动计划3提出,到2025年底,全国数据中心平均电能利用效率(PUE)降至1.5以下,而机据2025年6月1日新闻,录新--批“国家绿色数据中心"的PUE平均值已降至1.26,PUE指标持续下降是断建及存量数据中心改造的必然趋势。2.1需求层面:智算中心催生高算力芯片,系娩级功粘大幅提高ChatGPT引媒的生成式AI浪潮江汇智能算力高求至爆友式上升,数据中心产业投资升始从通间界力中心现速转内智能界力中心,通用鼻力是基于CPU提供的础计其能力,智能鼻力是依靠GPU,FPGA,ASIC等芯片加速待定类型的运算:根据工信部印发的家算力基础设施高质资发展行动计划》定义,智能计算中心是通连使用大规模异构算力资源,包活通用算力和驾能算力,主要为人工驾能应用(加人工智能深度学习模型开发、模型训练和模型推理等场录)投供所高其方,数据和界法的设施:智算中心在芯片依系、网路拓扑和款件我上部与传统数据中心存在本展差开,其核心价值在于按需聚合、调度GPU级别的高并行算力,机柜功率,带完密度和服务器整机规模均远超传统云数据中心。为了满足不断掌升的算力需求,游外以英伟达为百,国内以华为为首的服务器供应商陆续推出配者算中心需表的范片案构及系统方案:1)英伟达:BIackwe11架构下已经实现量产出货的三款产品B100-B200-GB200,单芯片半清度(FP16)案力从1.8P+1ops凝升至5PFIop5,同时最大热设计动率(TDP)从70ON提升至2700W,从录新发布的B300/GB300来垂,GB300算力较GB200提升50%,B300TDP 较 B200 增加 200N。22华为:910B半精度(FP16)算力达320T+1op5,成大功托400F,2024年Q4推出91CC,半清度(FP16)算力飞涨至780T1opS,相同任务下功范降低30%。 虽然从津芯片参数上,国内与海外还存在代差,但华为提出基于910C的拟向扩展解决方案CloudMatrix384半清度其力达到英伟达GB200-NVL72的1.7倍,CM384通过多对多托拓外连接384个并腾910C芯片,且由子横向及渠向拓质网络大规模采用400G光模块而非镜,总系统功耗较高、接近600kW。图表5:华为CM384系就草力优于英伟达NVL72芯片与其装饭别单位GB200率为9100年为v8英佛达TFLOPS2500OE20. 3 ×GE