您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[西部证券]:智能电动汽车行业深度报告:从AIDC液冷看汽零投资新机会 - 发现报告

智能电动汽车行业深度报告:从AIDC液冷看汽零投资新机会

交运设备2026-01-18西部证券黄***
AI智能总结
查看更多
智能电动汽车行业深度报告:从AIDC液冷看汽零投资新机会

西部证券研发中心2026年1月18日 分析师|齐天翔S0800524040003邮箱地址:qitianxiang@research.xbmail.com.cn分析师|彭子祺S0800525080008邮箱地址:pengziqi@research.xbmail.com.cn 01液冷技术——AIDC主流制冷方案 AIDC液冷产业链及核心组件梳理02 CONTENTS目录CONTENTS目录 汽零企业投资机会几何?03 核心标的梳理04 风险提示05 全球数据中心产业呈现全球数据中心产业呈现““四中心三拐点四中心三拐点””特征特征,,目前已进入智能算力中心时代目前已进入智能算力中心时代 •全球数据中心产业呈现“四中心三拐点”特征,目前已进入智能算力中心时代。21世纪以来,全球数据中心历经从计算中心、信息中心、云中心到智能算力中心的演进,以融合新技术推动数据中心整合、升级、云化为主要特征,在全球各大核心城市集群化发展,并不断向外辐射,根据科智咨询预测,2025年全球数据中心市场规模达1289亿美元,2019-2025年CAGR达13%。伴随数据中心产业日益成熟,用户需求开始转向绿色化、智能化的算力解决方案,市场竞争格局由早期运营商主导,逐步向拥有“绿色数据中心+智算云”一体化解决方案的IDC服务商加速扩容。 国内数据中心产业较全球起步较晚国内数据中心产业较全球起步较晚,,当前处于算力中心早期增长阶段当前处于算力中心早期增长阶段 •国内数据中心产业较全球起步较晚,当前处于算力中心早期增长阶段,预计2029年市场规模达到3175亿元。我国数据中心产业发展较美国落后3-5年,2020年以来,伴随云计算、大数据、AI等数字技术发展,智能算力、边缘算力、云存储等需求持续释放,叠加AI发展进入多模态和大模型2.0时代,推动我国数据中心产业进入新阶段,2024年中国传统IDC业务市场规模达1583亿元,市场需求开始向“云计算大型、超大型IDC+智能计算本地化中型数据中心+边缘计算小微型IDC”三级转变。根据科智咨询预测,预计2029年中国传统IDC业务市场规模将达到3175亿元,2024-2029年CAGR达15%。 政策对数据中心政策对数据中心PUEPUE要求趋严要求趋严,,制冷系统是节能关键路径制冷系统是节能关键路径 •政策对数据中心PUE要求趋严,制冷系统是节能关键路径。2019年以来,国家和地方密集出台节能优化政策,新建大型、超大型数据中心PUE要求逐渐趋严(电能利用效率)。根据《信息通信行业绿色低碳发展行动计划(2022-2025年)》要求,到2025年,全国新建大型、超大型数据中心PUE降至1.3以下水平。在保障算力运转的前提下,只有通过降低数据中心辅助能源的消耗,才能达成节能目标下的PUE要求。根据赛迪顾问统计,国内数据中心能耗中,散热设备能耗占比达43%,是数据中心辅助能源占比最高部分,因此降低制冷系统能耗,将成为降低PUE关键路径。 资料来源:曙光数创招股说明书,中国计算机用户协会数据中心,赛迪顾问,西部证券研发中心 单单机机柜柜功功率率密密度度持持续续提提升升,,数数据据中中心心制制冷冷难难度度升升级级,,液液冷冷技技术术有有望望成成为为主主流流制制冷冷方方案案 •单机柜功率密度持续提升,数据中心制冷难度升级,液冷技术将成为主流制冷方案。伴随摩尔定律失效,行业通过异构计算等技术持续提高芯片和系统的能效比,单个芯片的功耗快速增加,2024年3月GTC大会发布的B200达1000W。此外,在城市建设数据中心面积受限情况下,部署高功率密度机柜成为有效解决方案,根据赛迪顾问,预计2025年全球数据中心单机柜平均功率将提升至25kW;当单机柜功耗超过25kW时,传统风冷技术将很难满足服务器的散热需求。在此趋势下,液冷技术利用液体高比热容/蒸发潜热优势,实现对发热元器件精准散热,有效解决高功率密度机柜散热问题。此外,液冷利用液体的高导热、高传热特性,在进一步缩短传热路径的同时充分利用自然冷源,可实现PUE小于1.25的节能效果,满足政策导向,逐步成为行业主流制冷方案。 资料来源:赛迪顾问,中兴通讯《液冷技术白皮书》,维谛技术《智算中心基础设施演进》,西部证券研发中心 冷板式液冷为当前行业主流冷板式液冷为当前行业主流,,浸没式液冷制冷效率更佳浸没式液冷制冷效率更佳,,占比有望逐步提升占比有望逐步提升 表:不同液冷系统对比•冷板式液冷仍为行业主流方案,浸没式液冷具备更优的制冷效率,未来占比有望提升。液冷方案主要分为接触式和非接触两种。接触式方案指冷却液体与发热器件直接接触的一种液冷实现方式,主要包括浸没式液冷和喷淋式液冷。非接触式方案即冷却液体与发器器件不直接接触,以冷板式液冷方案为代表。目前,受传统数据中心对原有基础设施改造成本的难度的制约,冷板式液冷方案成熟度较高,根据IDC,2023年H1,中国数据中心冷板式液冷市场占有率达90%,具备良好商业基础,预计未来几年仍将是行业主流方案。长期来看,浸没式液冷和喷淋式液冷均实现了100%液体冷却,具备更优的节能效果,同时浸没式液冷在散热效率、单机柜功率、空间利用率等方面较其他方案更具优势,能够有效降低数据中心PUE,未来的应用比例仍然具备较高提升空间。 01液冷技术——AIDC主流制冷方案 AIDC液冷产业链及核心组件梳理02 CONTENTS目录CONTENTS目录 汽零企业投资机会几何?03 核心标的梳理04 风险提示05 冷板式液冷方案拆解:液冷一次侧技术成熟冷板式液冷方案拆解:液冷一次侧技术成熟,,二次侧为主要升级迭代方向二次侧为主要升级迭代方向 浸浸没没式式液液冷冷方方案案拆拆解解::冷冷却却液液占占比比浸浸没没式式液液冷冷成成本本约约6060%%,,为为方方案案拓拓展展主主要要制制约约因因素素 图:浸没式液冷制冷架构示意图 •组件名称:浸没式液冷Tank•主要功能:单项浸没式液冷系统的核心部件。由密封箱体、液体分配单元、温度传感器、液位传感器等组成,作为电子元件与液体进行热交换的场所。 •组件名称:CDU(冷却分发单元)•主要功能:将冷源合理分配给所需降温的IT设备•内部组件:换热器、循环泵、控制阀、电源等。 •组件名称:冷却液•主要功能:冷却介质与服务器直接接触,应具有良好的化学稳定性、绝缘性、热稳定性,同时需要考虑环保、可维护性等因素。•主要类型:碳氢及有机硅化合物类(单相浸没式)、碳氟化合物类(相变浸没式)。 单相浸没液冷系统 相变浸没液冷系统 •相变浸没液冷将系统中的电子设备浸入盛有易挥发冷却液的容器中,冷却液沸点较低,在环境热量达到一定条件时,会利用潜热吸收热量并产生沸腾相变,从而为设备降温,冷却液蒸汽再被冷凝管冷凝变为液态,回到液冷槽内循环换热。 •单相浸没式通过在整个系统中循环冷却液来消除设备产生的热量,首先热量从电子设备传递到液体中,然后使用循环泵将带有热量的冷却液送到热交换器,在热交换器中与温水进行循环换热,以持续地为设备部件降温。 预计预计20272027年全球数据中心液冷组件市场规模年全球数据中心液冷组件市场规模157157亿美元亿美元,,2525--2727年年CAGRCAGR3535%% •市场规模:2024年全球数据中心市场在生成式AI爆发、云计算加速渗透以及数字化战略落地的多重驱动下,迎来新一轮产业跃升,全球市场规模达1086亿美元,同比+15%。根据科智咨询预测,预计2027年全球数据中心市场将达到1633亿美元,2025-2027年年均增长率保持在10%以上。根据Omdia预测,全球数据中心液冷系统渗透率将保持逐年增长,预计2027年将达到30%。此外,液冷系统约占数据中心成本32%,对应2027年全球数据中心液冷组件市场规模将达到157亿美元,2025-2027年CAGR达35%。 •服务器液冷模块成本拆分:以英伟达GB200 NVL72为例,液冷模块总价值量约10万美元,芯片液冷板占比38%、CDU占比31%、UQD占比12%、Manifold占比12%,四大核心组件占比超90%。 英伟达:模块化设计推动液冷方案变化英伟达:模块化设计推动液冷方案变化,,液冷板液冷板&U&UQDQD价值量提升价值量提升 •从英伟达GB200和GB300硬件架构对比来看: GB200:单机架由18个计算托盘(Compute tray)与9个交换托盘(Switchtray)构成,其中每个计算托盘内置4颗GB200芯片,对 应2块Bianca板 卡(每 块 板 卡 均 标 配1颗Grace CPU与2颗BlackwellGPU)。 GB300:采用一体化的板卡设计,同时集成2个Grace CPU和4个BlackwellGPU,内置模组和GPU socket,使得组装和替换更加灵活。 模块化设计推动液冷方案变化:主要变化集中在液冷板和UQD。GB200采用“1个集成单元对应1块大冷板”,GB300则采用“每个芯片单独匹配1块小冷板”,对应芯片液冷板和UQD需求量增加,相应价值量提升。 资料来源:半导体行业观察,SEMI Analysis,IT之家,赛姆烯金公众号,麦麦网液冷产业链,西部证券研发中心 英伟达:液冷系统核心组件将跟随英伟达:液冷系统核心组件将跟随GPUGPU迭代持续升级迭代持续升级,,带来量带来量//价提升价提升 •英伟达下一代Rubin架构单GPU功耗将突破2000W。英伟达算力芯片额定功率持续提升,从H100/200单芯片700W,提升至GB200/300单芯片1200/1400W,预计下一代Rubin架构功耗将突破2000W,现有液冷方案将无法满足散热需求,相关核心组件设计方案将跟随GPU功耗提升持续升级: 液冷板:从集成式大面积冷板到模块化独立冷板,对于散热性能与精准度要求提升;Rubin架构将回归大冷板,融合微通道技术,进一步追求高效散热。 CDU:功率密度跟随AI集群功耗增加而增加,内部关键组件要求对应提升。 UQD:体积缩小、数量增加、材料降本为主要迭代方向。 Manifold:需管理更密集、更复杂的冷却液管路,确保各独立冷板流量均匀和系统承压稳定,技术难度升级。 由英伟达由英伟达GPGPUU扩展至扩展至ASICASIC芯片芯片,,液液冷冷技技术术有有望望成成为为北北美美云云厂厂商商ASICASIC集集群群标标配配方方案案 •ASIC厂商单芯片&整机功耗逐步提升,液冷技术方案有望成为北美云厂商ASIC集群标配方案。2025年以来,包括谷歌(TPU v7)、亚马逊(Trainium3)、Meta(MTIAT-V1)等厂商均有望在其ASIC芯片设计方案上引入液冷散热技术,预计伴随新一代AI芯片功耗的逐步提升,液冷技术方案有望逐步成为标配。 华为:华为:CMCM384384超节点较超节点较GBGB200200NVLNVL7272性能优性能优&&能效差能效差,,加加速速推推动动液液冷冷国国产产链链崛崛起起 •华为CM384超节点集群总体性能优于GB200 NVL72。从单芯片性能对比来看,华为昇腾910C在算力、高速内存、内存带宽等维度表现均要弱于英伟达B200。但在整体集群架构上,CM384超节点明显占优,算力达300 PFLOPS,为英伟达GB200 NVL72的1.7倍,同时在高速内存容量、带宽等参数方面,均具备显著优势。但值得注意的是,华为CM384超节点在保证性能的同时,很大程度上舍弃了能效表现,算力单位能耗和带宽单位能耗均要高于英伟达GB200 NVL72。 •CM384超节点有望推动液冷国产链崛起。从单芯片来看,华为昇腾910C功耗在300-400w区间,传统风冷即可满足;但从集群架构来看,CM384超节点大规模采用光收发器,根据SEMI Analysis估算单个CM384超节点功耗达559kw,约为GB200 NVL72的4倍,对数据中心供电和散热提出更高的要求。目前CM384采用液冷+风冷的模式,