AI智能总结
首席证券分析师:周尔双执业证书编号:S0600515110002zhouersh@dwzq.com.cn 证券分析师:钱尧天执业证书编号:S0600524120015qianyt@dwzq.com.cn 研究助理:陶泽执业证书编号:S0600125080004taoz@dwzq.com.cn 1.液冷技术:解决数据中心散热压力的必由之路 1)液冷技术是解决数据中心散热压力的必由之路,其具备低能耗、高散热、低噪声和低TCO的优势,同时其能降低数据中心PUE值,满足国家要求。2)同时随着芯片迭代,功率密度激增,对应芯片的散热需求越来越大,传统风冷难以为继,引入液冷势在必行。现阶段液冷的主要方案中冷板式占据主流地位,浸没式有望成为未来的发展方向。3)液冷系统主要由室外侧(一次侧)和机房侧(二次侧)组成,其中一次侧价值量占比约30%,主要包括冷水机组、循环管路,安全监控仪器等;二次侧价值量占比约70%,核心部件包括CDU、Manifold+快速接头、管路水泵阀件等。 2.液冷行业:伴随芯片升级液冷价值量提升,国产链加速入局 1)液冷价值量伴随芯片升级提升:伴随芯片升级迭代,功率密度激增,相应液冷价值量也会随之快速增长,以GB300-GB200服务器为例,根据我们测算,机架液冷模块价值量有望增长20%以上,未来随着rubin架构升级,液冷价值量有望进一步提升。根据我们测算,26年预计ASIC用液冷系统规模达353亿元,英伟达用液冷系统规模达697亿元。 2)国产链加速入局:商业模式上,英伟达放权开放供应商名录,代工厂自主选择供应链组成,由此前维谛为唯一认证CDU转向多供应方,国产链有望通过二次供应间接进入;此外随着国产液冷系统成熟度逐步提升,同时终端CSP更加注重产品性价比,国产链有望作为一供直接进入NV体系内 3. Rubin架构展望:微通道盖板&相变冷板为可选方案 单相冷板无法适用于Rubin架构,Rubin架构的热设计功耗(TDP)达到2300W,整柜功率约200KW,而单相冷板的设计上限为150KW/柜,因此无法适用于Rubin架构,需要引入新的液冷方案。1)可行方案一:相变冷板:相变冷板通过液体工质在冷板内吸收热量后发生相变(通常是液态到气态),利用相变过程中吸收的大量潜热来实现高效散热,一般来说相变冷板的介质为氟化液为主,适配单柜300KW+场景;2)可行方案二:微通道盖板(MLCP),核心是将高度密集的微尺度冷却液通道网络直接置于冷板基板下方或内部,通道宽度可从几十微米到几百微米不等,通道密度通常可达每平方厘米数百至数千个。我们判断微通道盖板有较大概率成为Rubin架构选择方案,主要系若至后续的Rubin Ultra方案,热设计功耗(TDP)达到4000+W,整柜功率超600KW,此时相变冷板将不再适用,因此若考虑方案成熟度,则直接上微通道盖板会更加有利于后续进一步迭代发展。 4.相关公司:当前AI服务器算力需求高速增长,带动液冷渗透率持续提升,数据中心对高效、节能换热解决方案的需求进入爆发阶段,建议关注【英维克】【申菱环境】【高澜股份】【宏盛股份】【中科曙光】【捷邦科技】等 5.风险提示:宏观经济波动风险;液冷市场渗透不及预期风险;国产链进入北美市场不及预期风险。 目录 一、液冷技术:解决数据中心散热压力的必由之路 三、Rubin架构展望:微通道盖板&相变冷板为可选方案 四、行业相关公司介绍 五、盈利预测与风险提示 1.1液冷技术:解决数据中心散热压力的必由之路 ⚫液冷技术是解决数据中心散热压力的必由之路。液冷是一种采用液体带走发热器件热量的散热技术,通过冷却液体替代传统空气散热,充分利用了液体的高导热、高热容特性替代空气作为散热介质,同传统强迫风冷散热对比,液冷具有低能耗、高散热、低噪声、低TCO等优势,适用于需提高计算能力、能源效率、部署密度等应用场景,已成为一种新型制冷解决方案,是解决数据中心散热压力和节能挑战的必由之路。 1.1液冷技术:解决数据中心散热压力的必由之路 ⚫液冷技术的核心优势:1)低能耗:液冷散热技术传热路径短、换热效率高、制冷能效高的特点促成液冷技术低能耗优势;2)高散热:以2MW机房为例,相同单位下,液冷散热能力是风冷的4-9倍。①液冷系统常用介质有去离子水、醇基溶液、氟碳类工质、矿物油/硅油等,这些液体的载热能力、导热能力和强化对流换热系数均远大于空气;②液冷技术下,单板、整柜、机房整体送风需求量大幅降低,允许高功率密度设备部署;同时,单位空间ICT设备布置数量上升,提高数据中心空间利用率。3)低噪声:液冷散热技术利用泵驱动冷却介质在系统内循环流动并进行散热,解决发热/高功率器件散热问题;能降低冷却风机转速或者采用无风机设计,从而具备极佳的降噪效果。4)低TCO:TCO(Total Cost of Ownership,即全生命周期成本),液冷技术具有极佳的节能效果,液冷数据中心PUE可降至1.2以下,每年可节省大量电费,能够极大的降低数据中心运行成本。 1.1液冷方案:高度适配服务器功率密度的飙升 ⚫高度适配服务器功率密度的飙升。为满足爆炸式增长的AI算力需求,服务器性能的跃升直接导致了芯片功耗与机柜功率密度的急剧攀升。1)芯片功率密度的激增:产品每演进一代,功率密度攀升30~50%,对应的芯片的散热需求越来越大。以英伟达为例,GPU的热设计功耗已从B200的700W,发展到GB300的1400W,再到未来VR300的潜在4000W,传统风冷散热能力越难以为继。2)整柜功率密度快速增长:分析英伟达服务器机柜功率的变化,从GB200 NVL72机柜功率约140kW,到GB300 NVL72柜机功率提升至约180kW,再到Rubin架构的规划功率高达370kW乃至600kW,AI服务器的柜机功率密度代际增幅显著。面对如此高密度的热负荷,传统风冷技术因空气的导热效率低下已触及物理天花板,无法保障服务器的稳定运行与可靠性。 1.1液冷方案:由“可选项”演变为“必选项” ⚫液冷方案由“可选项”演变为“必选项”。面对急剧攀升的芯片功耗与机柜功率密度,传统风冷已无法适应服务器需求。风冷散热一般适用于20kW/机柜左右的功率密度以下,20kW以上时液冷散热优势明显,在此背景下,液冷技术已成为应对高功率散热挑战、保障系统可靠性的关键基础设施,液冷方案由此从“可选项”演变为“必选项”。以英伟达为例,服务器液冷方案从GB200 NVL72的「液冷+风冷」演进至Rubin架构下的全液冷和液冷方案的迭代,计划引入微通道液冷板(Microchannel Cold Plate,MCCP)和直接在芯片内部进行散热的微通道盖(Microchannel Lid,MCL)等微通道冷板式液冷技术,以适配未来更高的功率与散热需求。 ⚫液冷技术被用于解决高功率密度机柜散热需求。整柜功率密度的增长,对机房制冷技术也提出了更高的挑战。不同机柜功率密度对应不同的机房制冷方式,液冷作为新兴制冷技术,被用于解决高功率密度机柜散热需求。 1.1液冷方案:符合国家PUE要求的解决方案 ⚫降低PUE关键在于减少除IT设备外的其他设备能耗。PUE(Power Usage Effectiveness,即电能利用效率)是衡量数据中心能效和绿色性能的核心指标,PUE =总设备能耗(IT设备能耗+其他设备能耗)/ IT设备能耗,其他设备能耗越少,则其PUE值越接近于1,代表算力中心的绿色化程度越高,所以降低PUE关键在于减少除IT设备外的其他设备能耗。 ⚫国家持续收紧数据中心PUE要求,大力推进液冷等节能技术应用。近年来,各级主管部门对算力中心PUE要求持续提升。2023年4月,财政部、生态环境部、工信部联合提出「自2023年6月起数据中心电能比不高于1.4,2025年起数据中心电能比不高于1.3」。北京、上海、深圳等其他地方政府也相继对算力中心PUE提出了一定的限制要求。与此同时,国家持续鼓励算力中心在研发、测试和应用中,采用液冷相关技术,加大算力中心行业节能技术创新力度,提升能源利用效率。 1.1降低PUE的关键在于压缩制冷系统能耗 ⚫降低PUE的关键在于压缩制冷系统能耗。算力的持续增长直接推高了硬件能耗。为实现节能目标下的PUE要求,必须在保障算力运行的同时,最大限度地降低数据中心辅助系统的能耗;根据麦肯锡数据,制冷系统约占数据中心能耗的40%,因此,降低PUE的核心在于降低制冷系统能耗。以PUE为1.5的数据中心能耗分布为例,制冷系统占比超过27%,是辅助能耗中占比最高的部分。 ⚫行业正通过“自然冷”与“液冷”两大技术路径协同推进PUE优化。近年来,为有效降低制冷系统电耗,行业内对机房制冷技术进行了持续的创新和探索。1)自然冷:在“东数西算”战略引导下,数据中心积极向内蒙古、贵州等气候凉爽地区迁移,充分利用其低温环境引入自然冷源。适用于当地干燥凉爽气候的蒸发冷却技术,通过水蒸发吸热原理大幅降低制冷能耗,可将PUE控制在1.15~1.35。2)液冷技术凭借液体优异的热传导特性,在进一步缩短传热路径的同时,充分利用自然冷源,实现了PUE小于1.25的极佳节能效果。 1.1液冷方案:全生命周期成本更低,经济效益显著 ⚫液冷方案的TCO更低,经济效益显著。液冷技术具有极佳的节能效果,液冷数据中心PUE可降至1.2以下,每年可节省大量电费,能够极大的降低数据中心运行成本。相比于传统风冷,液冷散热技术的应用虽然会增加一定的初期投资,但在项目建成的运行过程中,从风冷到液冷,冷却能耗与电费呈数量级下降,其中冷板式液冷相比风冷,节能率高达76%;浸没式液冷相比风冷,节能率高达93%以上,每年可节省785万元,经济效益显著,有利于推动进一步的规模化应用。规模为10MW的数据中心,比较液冷方案(PUE1.15)和冷冻水方案(PUE1.35),市场预计2.2年左右可回收增加的基础设施初投资。以国内某液冷算力中心工程为例,该项目实际布署超聚变液冷节点超万个,一举成为全球最大液冷集群。经统计,该项目TCO降低30%,交付效率提升100%,经济性提升明显。 1.2液冷技术可根据冷却液是否与热器件接触分两类 ⚫根据冷却液是否与热器件接触,液冷技术可分为直接接触式和间接接触式两种。直接接触式是指将冷却液体与发热器件直接接触散热,包括单相浸没式液冷、两相浸没式液冷、喷淋式液冷;间接接触式是指冷却液体不与发热器件直接接触,通过散热器间接散热,包括单相冷板式液冷、两相冷板式液冷。其中,冷板式液冷采用微通道强化换热技术具有极高的散热性能,目前行业成熟度最高;而浸没式和喷淋式液冷实现了100%液体冷却,具有更优的节能效果。 1.2单相冷板式在未来较长时间仍将占据主流地位 ⚫单相冷板式液冷方案在未来较长时间内仍将是应用的主流方案。因冷板式技术与传统风冷架构的良好兼容性、相对成熟的产业链配套以及较低的改造成本;现阶段,数据中心液冷方案中冷板式占据主流地位。其中,1)单相冷板式液冷:凭借其技术成熟度高、系统稳定性强、改造成本可控等优势,已成为市场接受度最高、落地最广泛的主流解决方案。2)双相冷板式液冷:作为技术演进的重要方向,理论上虽具备更高的散热效率,但因冷却液气化导致的体积膨胀,会在密闭系统内产生剧烈的压力冲击与波动,极大增加了管路连接与密封失效的风险,其规模化商用仍需时日。综合研判,单相冷板式液冷在未来较长时间内仍将是应用的主流方案。 ⚫浸没式液冷是当前行业与冷板式共存的另一主要技术路线。因其因散热效率高PUE能降至1.13以下的卓越能效表现,特别适用于高密度计算场景,具备广阔的长期发展前景。但受制于初始投资成本、系统架构重构以及运维习惯转变等因素,综合来看,在冷板式达到散热极限前,市场仍将以冷板式(尤指单相冷板式)为主流方案。 1.2冷板式液冷:通过液冷板进行热量传递 ⚫冷板式液冷的散热过程是一个高效、闭环的热量传递循环。冷板式液冷是通过液冷板(通常为铜铝等导热金属构成的封闭腔体)将发热器件的热量间