您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[华西证券]:AIGC行业深度报告(16):液冷,AI时代的下一个“光模块” - 发现报告

AIGC行业深度报告(16):液冷,AI时代的下一个“光模块”

2024-07-24刘泽晶、孟令儒奇华西证券Y***
AI智能总结
查看更多
AIGC行业深度报告(16):液冷,AI时代的下一个“光模块”

华西计算机团队2024年7月24日 分析师:刘泽晶SAC NO:S1120520020002邮箱:liuzj1@hx168.com.cn 分析师:孟令儒奇SAC NO:S1120524060001邮箱:menglrq@hx168.com.cn 核心逻辑: 为什么说液冷是AI的下一个光模块:AI高速互联时代,高算力与高效传输架构相匹配,从40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升级之路永不停息;液冷已经从“选配”到“必配”,高温环境下,芯片内部的电子元件会因为长时间工作而受到损耗,从而缩短芯片的使用寿命,风冷的极限芯片散热功率是800W,英伟达部分产品已经突破风冷能力上线,例如GH200以及最新款B200、GB200。此外单机柜密度来说,2025年AI集群算力单机柜密度将有望到20-50kW,也远远超出了风冷的上限。政策为液冷市场扎入“强心剂”,国家政策对PUE值要求趋紧,呈逐年下降趋势。 深度拆解液冷的核心价值链:液冷分为冷板式液冷,浸没式液冷、喷淋式液冷,我们判断冷板式液冷有望率先放量。根据我们的测算,2024、2025年我国的液冷市场规模分别为208.17、1700.23亿元,同比增速分别为756.6%、716.8%。液冷散热系统通常由至少两个相互隔离的循环回路组成,一次侧主要的散热设备主要有三种:干冷器、冷却塔和制冷机组,冷板式液冷的二次侧组件包括:冷板组件、快速接头QDC、机柜工艺冷媒供回歧管RCM、环路工艺冷媒供回歧管LCM、冷量分配单元CDU及工艺冷媒,相关公司有望在液冷趋势下快速放量。 深度拆解液冷的受益公司类型:维谛技术(Vertiv)深度绑定英伟达从而迈向成长,公司2023年3月31日股价为11.75美元,公司2024年3月31日公司股价为81.67美元,我们判断其背后的原因为由于AIGC爆发,公司相关液冷数据中心产品业绩迎来高增。我们将液冷产业链的受益公司简单拆解为三类,分别是服务器内侧端、液冷建设端、液冷基础设施提供商;我们将服务器内侧端定义为服务器内部的组件,可直接受益高功率AI芯片放量。液冷建设端,由于建设主体的不同,我们将液冷建设端分为液冷全链条式解决方案厂商、服务器厂商以及IDC厂商,每种类型厂商独具优势。液冷基础设施提供商即可提供相关液冷单独产品,随着液冷的升级换代,其相关产品有望量价齐升。 投资建议:在AI芯片架构升级的大趋势下,高算力与高功耗相匹配,英伟达相关产品功耗已经超过风冷极限,液冷已经从“选配”到“必配”,受益标的为:服务器内侧端:服务器内侧端:飞荣达等;液冷建设端,全链条式解决:英维克、申菱环境、高澜股份等;液冷建设端,服务器厂商:工业富联、浪潮信息、曙光数创等;液冷建设端,IDC建设:润泽科技、奥飞数据、数据港等;液冷基础设施提供商:强瑞技术、淳中科技、朗威股份、川环科技、海鸥股份等; 风险提示:核心技术水平升级不及预期的风险、AI伦理风险、政策推进不及预期的风险、中美贸易摩擦升级的风险。 目录 01液冷已经从“选配”到“必配”02深度拆解液冷的核心价值链03梳理液冷产业链的受益公司04投资建议05风险提示 1.1算力在大模型时代迎来爆发,光模块需求高增 大模型参数呈现指数规模,引爆海量算力需求:根据财联社和OpenAI数据,ChatGPT浪潮下算力缺口巨大,根据OpenAI数据,模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算规模的增长,带动了对AI训练芯片单点算力提升的需求,并对数据传输速度提出了更高的要求。根据智东西数据,过去五年,大模型发展呈现指数级别,部分大模型已达万亿级别,因此对算力需求也随之攀升。 大模型参数量的增长,数据中心互联互通成为核心关键:在万亿级大数据的背景下,单卡/单服务器算力已经无法支撑庞大模型的训练,而芯片与芯片之间的互联成为重中之重,集群的效应显得尤为关键,因此在AI的大背景下,由于叶脊网络架构中的服务器交换流量较大,因此服务器与交换机互联的统一互联互通的数据中心均使用光模块,而光模块传输速度越高,证明其互联互通的效率也就越高,因此在整体算力芯片架构升级的大背景下,传输速率较高的光模块成为当下的首选。 1.1算力在大模型时代迎来爆发,光模块需求高增 AI高速互联时代,高算力与高效传输架构相匹配:复盘英伟达数据中心芯片产品,其中明显可以看到显存带宽与互联互通传输速度的稳定增长。 1.1算力在大模型时代迎来爆发,光模块需求高增 英伟达Blackwell架构发布,传输速率更上一层楼:可以看到英伟达Blackwell架构下的新品传输速率和显存带宽相较于Hopper架构有显著提升; 1.2液冷已经从“选配”到“必配”,液冷拐点已经到来 为什么说液冷是AI的下一个光模块:电子产品升级迭代规律使然,从上文证实的光模块成长路径,AI高速互联时代,高算力与高效传输架构相匹配。从40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升级之路永不停息,全部体验到从“奢侈”、“尝鲜”到“普及”、“刚需”的过程。同样,散热领域也是相同,相关技术也在提升,先是自然风冷、空调风扇、散热片,继而是液冷。液冷也有喷淋式、冷板式和浸没式等等。 为什么说液冷已经从“选配”到“必配”: 芯片:环境温度对芯片的影响不容忽视,高温环境下,芯片内部的电子元件会因为长时间工作而受到损耗,从而缩短芯片的使用寿命。温度升高会引起电容、电阻以及金属线等材料的热膨胀,进而导致它们的机械变形和结构破坏,最终影响芯片的正常运行。根据与非往消息,而单从芯片来看,风冷的极限芯片散热功率是800W,英伟达部分产品已经突破风冷能力上线。 数据中心:根据与非往消息,自然风冷的数据中心,单机柜密度一般只支持8-10kW,在机柜功率超过10kW后性价比大幅下降。而根据与非网数据,2025年AI集群算力单机柜密度将有望到20-50kW,也远远超出了风冷的上限。 1.1算力在大模型时代迎来爆发,光模块需求高增 AI高速互联时代,高算力与高功耗相匹配:复盘英伟达数据中心芯片产品,其中明显可以看到其芯片算力和芯片的功耗成明显的正相关。 AI高速互联时代,高算力与高效传输架构相匹配 1.2液冷已经从“选配”到“必配”,液冷拐点已经到来 英伟达部分产品已经超过风冷极限:如下图所示,GH200以及最新款B200、GB200的功耗已经超过风冷极限,H200和B100的功耗已经接近风冷极限; 1.3液冷政策为液冷市场扎入“强心剂” PUE值(电能利用效率)是衡量数据中心绿色程度的关键指标。PUE(Power Usage Effectiveness),即电能利用效率。PUE是数据中心消耗的所有能源与IT负载消耗的能源的比值。PUE的值越高,数据中心的整体效率越低。当该值超过1时,表示数据中心需要额外电力开销以支持IT负载。PUE值越接近于1,说明数据中心的电大部分被服务器、网络设备、存储设备消耗,该数据中心的绿色化程度越高。在数据中心中,制冷系统能耗占数据中心总体能耗较高。根据中国通信学会通信电源委员会数据,在典型的数据中心能耗构成中,比重最大部分为IT设备,占比50%,其次为制冷系统设备,占比35%,最后为供配电系统设备以及其他消耗电能的数据化中心设施。在制冷系统中,主要包括空调设备、提供冷源设备以及新风系统,具体能耗构成如下表所示。 与传统风冷相比,液冷技术PUE值普遍更低。根据CSDN数据,传统风冷的PUE值大概为1.3,而采用液冷技术,PUE值会显著降低。其中,采用传统冷板技术的PUE值大概为1.2,浸没液冷的PUE值在1.05-1.07之间。 1.3液冷政策为液冷市场扎入“强心剂” 国家政策对PUE值要求趋紧,呈逐年下降趋势。根据国务院相关部门文件,对于新建大型及以上数据中心,在总算力要求提高的同时,还要求其PUE值在2021年底降至1.35以下;到2023年底,降低到1.3以下,严寒和寒冷地区力争降低到1.25以下;到2025年底,在此基础上绿色低碳等级达到4A级以上。 制冷系统政策导向明显,利好液冷技术。2023年,在财政部等三部门联合发布文件《绿色数据中心政府采购需求标准(试行)》中,明确提出,鼓励数据中心相关设备和服务优先选用新能源、液冷、分布式供电、模块化机房等高效方案。 1.3液冷政策为液冷市场扎入“强心剂” 各省、一级PUE标准向国家政策标准靠拢。在国务院政策标准基础上,将数据中心细化为大型及超大型数据中心及中小型数据中心;存量改造智算中心及新建智算中心,进行差异化政策制定。对大型、超大型数据中心以及新建数据中心要求更严格。 液冷机柜数量开始列入政策硬性要求。2024年3月,上海市通信管理局等11个部门联合印发《上海市智能算力基础设施高质量发展“算力浦江”智算行动实施方案(2024-2025年)》正式发布。该方案表示:至2025年,新建智算中心PUE值达到1.25以下;存量改造智算中心PUE值达到1.4以下;智算中心内绿色能源使用占比超过20%,液冷机柜数量占比超过50%。 1.4深度绑定英伟达,维谛技术(Vertiv)迈向成长 维谛技术数字建设基础设施的提供商:提供硬件、软件、分析和延展服务技术的整体解决方案,帮助现代数据中心、通信网络、商业和工业设施用户所面临的艰巨挑战,提供全面覆盖云到网络边缘的电力、制冷和IT基础设施解决方案和技术服务组合,其前身为艾默生,该公司专注于提供关键基础设施技术及服务,包括电源、热管理和IT基础设施解决方案。 公司数据中心产品与服务是公司的核心竞争力,最主要包括电力、热管理等一体化的解决方案:关键电源管理:可提供直流电源、交流不间断电源、配电、变频器、电源监控等一系列解决方案;热管理:即风冷、液冷整体解决方案等;IT管理:即一体化解决方案、后续市场的监控、管理、服务等等。 1.4深度绑定英伟达,维谛技术(Vertiv)迈向成长 维谛技术收购CoolTera,强强联合加大强液冷布局:2023年12月11日,根据今日热点网消息,维谛技术子公司将收购购数据中心液冷技术基础设施提供商CoolTera全部股份和相关资产。CoolTera成立于2016年,是一家总部位于英国的数据中心液冷基础设施解决方案厂家,具备冷量分配单元、二次侧管路和Manifold的专业原厂研发设计制造能力。此前,Vertiv与CoolTera在液冷技术领域已密切合作三年,共同部署了全球多个数据中心和超算系统。我们判断,本次收购进一步增强了Vertiv的热管理能力和行业影响力。 Vertiv参与了英伟达COOLERCHIPS计划,并被指定为唯一的制冷系统合作伙伴:我们判断AIGC与液冷趋势有望稳定其龙头地位。此前Vertiv已经与英伟达专家团队进行高密度数据中心制冷方案进行测试,根据极目新闻消息,实测结果显示IT负载从100%风冷转型为75%液冷的方案时,服务器风扇用电量降低最多达到80%,使总体使用效率(Total Usage Effectiveness, TUE)提高15%以上;根据搜狐网消息,今年3月,英伟达NVIDIA与维谛Vertiv共同提出的机架式混合冷却系统方案,是业界首次将两种液冷技术:冷板液冷和浸没液冷耦合到同一系统中的解决方案这项创新系统预计可冷却运行环境高达40 ℃的机架式数据中心,单机柜IT功率可达200kW,是目前常规服务器单机柜功率的25倍。与传统风冷相比,两种液冷混合冷却模式的成本更低,运作效率可提高20%。 1.4深度绑定英伟达,维谛技术(Vertiv)迈向成长 基础设备及解决方案是公司核心产品:复盘公司2020年至2023年各产品收入增速,其中基础设施产品收入占比最大且增速较快,2020年公司基础设施产品收入为160.36亿元,占比为56.23%,2023年收入为315.12亿元,占比为