您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [长城证券]:人工智能行业:算力奔腾时代,重构数据中心电源及基础设施架构脉络 - 发现报告

人工智能行业:算力奔腾时代,重构数据中心电源及基础设施架构脉络

信息技术 2025-12-17 长城证券 王英文
报告封面

长城证券产业金融研究院分析师侯宾执业证书编号:S1070522080001买入(强于大市) 分析师姚久花执业证书编号:S1070523100001 分析师李心怡执业证书编号:S1070525120001时间:2025年12月17日 ◼传统数据中心采用分层解耦的规划设计方式,按计算、存储、网络等部件分别采购建设,适用于多数通算任务。但在面向大模型训练等高并行智能计算场景时,传统架构面临挑战,AI DC应运而生并呈现出新的架构特征。AIDC形成了以算力底座层、平台服务层、模型使能层和行业应用层为核心的新型架构。AIDC必须将算力底座构建为如超级计算机般精密协同的系统,实现“DC as a Computer”,传统按部件采购建设模式无法满足要求。在架构上,算力底座与模型使能层、模型使能层与业务应用层之间可解耦,但各层内部需高度垂直整合,以实现高效算力与一体化运维,保障高并行智能计算的稳定高效运行。根据IEA数据显示,AI服务器的电力消耗相比传统服务器将增加五倍,这将导致2030年数据中心的电力总消耗翻倍美国、中国和欧洲占全球数据中心容量的82%,IEA预计到2030年数据中心电力需求增长中,美国占比超过50%以上,中国和欧盟占比6-10%。AI工作负载的指数级增长正在增加数据中心的功率需求,传统机架电源遇到限制。 ◼随着服务器机柜功率的跃迁式提升,数据中心供电系统亟需新的解决方案,以应对未来单个机柜高达兆瓦级的运行功率。HVDC技术采用更高等级的直流母线电压(如DC240V)进行输电,再经由DC-DC电源模块降至DC48V供给服务器主板。该架构以锂电池BBU替代传统UPS中的铅蓄电池,同时省去了UPS的逆变与整流环节,从而显著提升了电力传输的转换效率。从2027年开始,NVIDIA正在率先向800V HVDC数据中心电力基础设施过渡,以支持1MW及以上的IT机架。传统的数据中心配电涉及多次电压转换,会导致效率低下并增加电气系统的复杂性。根据智研咨询报告,随着头部企业加速推进800V HVDC电源产品的研发与落地,预计到2030年,全球AI数据中心800V HVDC市场规模将达到354亿元,2026–2030年间年复合增长率高达46%。 ◼在人工智能技术快速演进与相关行业高速增长的背景下,芯片功耗持续上升,促使制冷方案趋于多样化。随着机架功率密度不断提高,风冷技术的有效散热边界约为40-60kW/机架。超越此阈值后,无论从散热效能还是成本角度考虑,均需转向液冷方案部署。因此,数据中心制冷正从纯风冷模式向风液混合模式演进。数据中心能耗持续攀升,液冷技术被视为关键的突破方向。根据IDC数据显示显示,2025年人工智能数据中心的IT能耗预计达77.7太瓦时,为2023年的两倍;到2027年或将进一步增至146.2太瓦时。从2022年至2027年的年复合增长率预计为44.8%,五年内增长约六倍。液冷技术通过提升计算密度、降低整体能耗,为数据中心节能提供重要路径。全栈液冷方案能够推动计算节点、机柜乃至数据中心多层面向绿色低碳转型。IDC预计2028年中国液冷服务器市场规模将达到105亿美元,2023年至2028年的复合增长率约48.3%。 ◼相关的标的:主设备商&服务器:浪潮信息、紫光股份、星网锐捷、中科曙光;光模块:天孚通信、中际旭创、新易盛、华工科技;光芯片:源杰科技;散热:淳中科技、英维克、佳力图、申菱环境;服务器电源:欧陆通;PCB:兴森科技、胜宏科技、景旺电子、科翔股份、沪电股份、深南电路、世运电路、崇达技术;连接器:鼎通科技、瑞可达;掩膜版:路维光电、清溢光电;线缆:新亚电子;算力模组:美格智能、移远通信、广和通。 ◼风险提示:全球经济疲弱风险、全球算力需求波动风险、人工智能技术落地不及预期、基建进度不及预期。 探索AI发展史 11、、AIAI的探索与腾飞的探索与腾飞 我国IDC发展现状 ◼根据华为《AI DC白皮书》显示,传统数据中心采用分层解耦的规划设计方式,按计算、存储、网络等部件分别采购建设,适用于多数通算任务。但在面向大模型训练等高并行智能计算场景时,传统架构面临挑战,AI DC应运而生并呈现出新的架构特征。 ◼AIDC形成了以算力底座层、平台服务层、模型使能层和行业应用层为核心的新型架构。其核心变化在于强调垂直整合,尤其是算力底座层。传统通算任务可在松耦合系统中分布执行,而大模型训练需整个算力底座作为统一系统运行单一任务,跨越所有节点长期高并行运转,节点间紧密耦合,任一故障将导致任务中断,带来巨大损失。 ◼因此,AIDC必须将算力底座构建为如超级计算机般精密协同的系统,实现“DC as a Computer”,传统按部件采购建设模式无法满足要求。在架构上,算力底座与模型使能层、模型使能层与业务应用层之间可解耦,但各层内部需高度垂直整合,以实现高效算力与一体化运维,保障高并行智能计算的稳定高效运行。 ◼根据IEA数据显示,AI服务器的电力消耗相比传统服务器将增加五倍,这将导致2030年数据中心的电力总消耗翻倍。 ◼美国、中国和欧洲占全球数据中心容量的82%,IEA预计到2030年数据中心电力需求增长中,美国占比超过50%以上,中国和欧盟占比6-10%. ◼AI工作负载的指数级增长正在增加数据中心的功率需求,传统机架电源遇到限制。传统的54V机架内配电专为千瓦(KW)-scale机架设计,无法支持即将进入现代AI工厂的兆瓦(MW)-scale机架。 IDC供电架构革命 ◼随着服务器机柜功率的跃迁式提升,数据中心供电系统亟需新的解决方案,以应对未来单个机柜高达兆瓦级的运行功率。以北美云服务提供商为代表的国外数据中心,其演进路线主要可分为以下几种架构:图表:不同数据中心供电架构路径图示 ◼架构一:UPS交流供电。该方案以UPS为核心设备,是目前的主流选择,但由于需经过至少两级电能转换,整体效率相对较低。 ◼架构二:市电直供+机柜级BBU。这一方案对锂电池的应用更为激进,它简化了传统UPS加电池的备电方式,采用市电直接为服务器供电,并将备用电池(BBU)集成在服务器机柜内。其优势在于取消了UPS、备电贴近负载从而可靠性高,但缺点是备电时间较短且安全隐患相对较高。 ◼架构三:±400V高压母线+sidecar。随着机柜功率密度的提升,传统方案电能传输效率低,且柜内电源设备会挤占IT负载空间。采用±400V高压母线,并将电源设备集中布置在IT机柜旁的sidecar中,可显著提升效率并节约空间。 ◼架构四:SST中压直供。为降低数据中心供电系统(灰区)的占比、提升效率并便于新能源接入,采用固态变压器(SST)的中压直供方案优势明显,目前被视为数据中心供电的终极发展方向。 ◼当前数据中心供电系统通常需经历多次AC-DC-AC-DC转换,每一环节都存在电能损耗,导致整体效率降低。随着AI算力需求急剧增长,电力消耗大幅上升,单个系统的能量浪费若扩展至整个数据中心,将造成更多的电力资源损失。为此业内提出了新型的HVDC(高压直流输电)架构,通过直流电进行大容量电力传输,以降低损耗。 ◼HVDC技术采用更高等级的直流母线电压(如DC240V)进行输电,再经由DC-DC电源模块降至DC48V供给服务器主板。该架构以锂电池BBU替代传统UPS中的铅蓄电池,同时省去了UPS的逆变与整流环节,从而显著提升了电力传输的转换效率。 ◼当前国内数据中心供电架构仍以UPS交流供电系统为主流。此外,直流供电方案(如240V和336V两种电压制式)也已成熟,但由于末级配电中服务器电源的兼容性问题,其市场份额仍然较低。不过,智算中心对提升转换效率的需求,正在对更高电压平台的HVDC方案,以及同为直流供电的巴拿马电源、SST等方案形成催化。整体而言,国内对此类方案的迫切程度仍较国外为低。 880000VV HHVVDDCC ◼根据英伟达官方表示,从2027年开始,NVIDIA正在率先向800V HVDC数据中心电力基础设施过渡,以支持1MW及以上的IT机架。◼传统的数据中心配电涉及多次电压转换,会导致效率低下并增加电气系统的复杂性。通过使用工业级整流器,在数据中心周边将13.8kV AC网电源直接转换为800V HVDC,消除了大多数中间转换步骤。这种简化的方法可更大限度地减少能源损失,这些损失通常发生在多个AC/DC和DC/DC转换期间。◼根据智研咨询报告,随着头部企业加速推进800V HVDC电源产品的研发与落地,预计到2030年,全球AI数据中心800VHVDC市场规模将达到354亿元,2026–2030年间年复合增长率高达46%。图表:传统数据中心电源架构及800V HVDC架构图表:HVDC的优势 99 ◼根据国家能源局、中国信息通讯研究院统计,2024年我国数据中心能耗总量1660亿千瓦时,约占全社会用电量的1.68%,同比增长10.7%。这一增速已显著高于同期全社会用电量6.8%的总体增长水平,数据中心在能源消耗领域中占据重要地位。 ◼在人工智能技术快速演进与相关行业高速增长的背景下,芯片功耗持续上升,促使制冷方案趋于多样化。随着机架功率密度不断提高,风冷技术的有效散热边界约为40-60kW/机架。超越此阈值后,无论从散热效能还是成本角度考虑,均需转向液冷方案部署。因此,数据中心制冷正从纯风冷模式向风液混合模式演进。 IIDDCC 1010 ◼服务器的冷却主要包括风冷与液冷两种技术。风冷以空气为冷媒,通过空气与发热部件直接接触进行散热;液冷则借助液体作为冷媒,将设备内部元器件产生的热量传递至外部,从而实现冷却。在信息技术产业发展初期,风冷因其适应性强,曾是小型数据中心的理想选择。随着高功率密度的大型数据中心逐渐成为主流,风冷散热能效较低的局限性日益凸显,已难以满足信息行业绿色发展的要求。 ◼液冷技术主要包括冷板式液冷、浸没式液冷和喷淋式液冷技术三种。目前液冷技术以冷板式液冷、浸没式液冷为主要形式。根据中商产业研究院数据,截至2024年,中国液冷技术市场占比情况为:冷板式液冷技术市场占比约为65%,是目前成熟度最高、应用最广泛的液冷散热方案之一;浸没式液冷技术市场占比约为34%;喷淋式液冷市场占比约为1%。根据冷却液是否与电子器件直接接触,液冷技术分为直接式液冷和间接式液冷。间接式液冷以冷板式为代表,冷却液流经CPU/GPU顶部的冷板,IT设备与冷板交换热量,电子元器件不与冷却液直接接触;直接式液冷以浸没式为代表,服务器完全或部分浸入绝缘冷却液中。根据冷却液在散热时是否有形态上的变化,液冷技术又可以分为单相和两相,其中单相指冷却液始终以液体的形式循环,两相是指冷却液在吸热时发生气液相变,从而获得更大的进出温差,在散热方面优于单相。 1111 ◼冷板式液冷系统可靠成熟,技术应用广泛。浸没式液冷稳步发展,适合极致散热需求。 图表:冷板式液冷系统拆分冷板式液冷在航空航天、新能源汽车、芯片等领域均具备广阔的应用积累。冷板系统主要包括冷板、管路、快速接头、分液歧管、冷量分配单元与室外一次侧冷却设备等组件。冷板通常是由铜、铝等高导热金属构成的封闭腔体。服务器芯片等发热元件通过导热界面材料与冷板贴合,热量经导热界面材料传递到冷板上,并通过冷板内部冷却液循环带走热量。组件材料常规,生产工艺成熟,利于规模化应用。浸没式液冷系统由浸没箱体、冷却液、冷量分配单元、室外一次侧冷源等组成,通过将服务器完全浸没于特殊定制的浸没箱体中,并与箱体内绝缘冷却液直接进行热交换,该系统在换热效率方面具有明显优势,节能效果更显著。浸没式液冷系统按冷却液相态是否发生变化可分为单相式和两相式两类。单项式采用高沸点冷却液,散热过程中冷却液始终保持液态,挥发损耗低,热力稳定,结合开放箱体设计,组件的运维更加便利。对于两相式,由于冷却液会吸热汽化,冷凝回流,热量转移更高效,但需要系统具备良好的密封性与承压性。 1212 ◼数据中心能耗持续攀升,液冷技术被视为关键的突破方向。根据IDC数据显示显示,2025年人工智