您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [国金证券]:计算机行业研究:国产机柜时间到来 - 发现报告

计算机行业研究:国产机柜时间到来

信息技术 2026-04-09 刘高畅,陈芷婧,鲍淑娴 国金证券 福肺尖
报告封面

本周观点 超节点产业进入规模落地期。1)大模型训练与推理对Scale-up域刚性需求显现。大模型万亿参数与MoE架构确立新常态,专家并行(EP)带来的高频All-to-All通信对互联带宽提出极致要求。传统Scale-out集群面临通信、功耗与复杂度的物理硬约束,在此背景下,具备大带宽与内存统一编址能力的Scale-up超节点正式成为新一代智算基建的核心底座。2)供给端:海内外厂商超节点产品密集发布。产业供给端已步入密集兑现期,海外英伟达GB200 NVL72整机架处于满负荷运行状态,并向NVL576加速演进;国内阵营全面起势,华为CM384进入工程化交付阶段,中科曙光(scaleX640/40)、百度(天池256/512)、阿里(磐久128)等头部厂商的机柜级超节点产品相继发布或商用。供需双侧强逻辑共振,印证超节点产业已跨越技术验证期,全面开启规模化落地。 集群化交付推动ODM厂商毛利率结构性抬升。交付单元从单台白盒服务器跃迁为整机柜乃至Pod级系统交付,整机柜在供电架构、散热、互联三个维度均形成显著工程壁垒,使超节点的研发与交付成为对厂商技术、运维、工程能力的综合性挑战。当交付复杂度提升、合格供应商稀缺时,头部ODM具备向客户转移工程溢价的实际能力,毛利率有望向更高区间迁移。 超节点整机柜的设计需解决高密度GPU协同工作的挑战,多环节价值量有望显著提升。核心设备厂商正依托深厚的技术卡位,迈入业绩兑现周期:1)浪潮信息双线布局超节点矩阵,先后发布元脑SD200与CRS6000S服务器,实现单机柜32/64张本土AI芯片的超高密部署,其构建的32卡Scale-up高速互联域将卡间通信带宽大幅提升8倍,推动千亿参数大模型训练周期由月级实质性压缩至周级。此外,公司牵头组建超节点创新联合体打造“北京方案”,联合产业链攻坚互连协议与应用落地,实质性打通超节点规模化部署的“最后一公里”;2)华勤技术凭借计算、网络与液冷散热的全栈设计壁垒,其超节点项目预计于今年第二季度开始发货并于下半年步入规模化交付,2026全年相关收入指引超百亿元,加速确立行业领先身位。 相关标的 国内算力:寒武纪、海光信息、东阳光、利通电子、协创数据、网宿科技、优刻得、豫能控股、润泽科技、亿田智能、华丰科技、神州数码、云天励飞、大位科技、润建股份、科华数据、中芯国际、华虹半导体、禾盛新材、奥飞数据、首都在线、云赛智联、瑞晟智能、潍柴重机、欧陆通等。 风险提示 行业竞争加剧的风险;技术研发进度不及预期的风险;特定行业下游资本开支周期性波动的风险。 内容目录 一、超节点产业进入规模落地期...................................................................41.1需求端:大模型训练与推理对Scale-up域刚性需求显现......................................41.2供给端:海内外厂商超节点产品密集发布...................................................5二、超节点驱动产业链价值量重估的核心原因......................................................102.1价值量跃迁:AI服务器相对通用服务器整机价值量约25倍,增量在环节间呈现显著梯度分化.....102.2集群化交付推动ODM厂商毛利率结构性抬升..............................................11三、相关标的..................................................................................133.1浪潮信息:超节点机柜布局已久,牵头组建创新联合体......................................133.2华勤技术:超节点下半年量产交付,26全年收入预计超百亿.................................14风险提示......................................................................................15 图表目录 图表1:顶级生成式AI模型训练算力需求演进趋势(2020-2025)....................................4图表2:MoE架构对互联带宽、延迟和动态调度能力的要求提升......................................4图表3:超节点解决传统服务器集群面临的“三堵墙”问题..........................................5图表4:数据中心网络从Scale-out阶段的“服务器堆叠”升级至Scale-up阶段的“超节点”............5图表5:Hopper与Blackwell两代GPU所对应的机柜级Scale-Up形态...............................6图表6:GB200 NVL72连接结构示意.............................................................6图表7:NVIDIA Polyphe原型,基于GB200的多机架NVL576纵向扩展系统..........................7图表8:华为超节点路线图......................................................................7图表9:华为CloudMatrix 384结构示意图.........................................................8图表10:Atlas 950超节点......................................................................8图表11:Atlas 960超节点......................................................................8图表12:2025世界互联网大会乌镇峰会期间中科曙光scaleX640备受关注............................9图表13:中科曙光scaleX40具备低门槛部署、高稳定运行和开箱即可用的系统创新优势................9图表14:百度天池256超节点单卡吞吐提升3.5倍.................................................9图表15:天池512超节点单节点完成万亿参数训练.................................................9图表16:阿里磐久AL128超节点...............................................................10图表17:磐久超节点ScaleUp互连拓扑图........................................................10图表18:Semianlysis对2x Intel Sapphire Rapids Server与Nvidia DGX H100的成本进行了比较,AI服务器比标准CPU服务器的成本多出约25倍...........................................................10图表19:传统8卡服务器和超节点互联组件占比..................................................11 图表20:GPU集群规模扩大,内部通信数据量呈超线性增长.......................................11图表21:服务器代工生产主要有12个层级.......................................................12图表22:浪潮超节点服务器CRS6000S..........................................................14图表23:浪潮信息牵头组建创新联合体..........................................................14图表24:华勤AI超节点产品...................................................................14 一、超节点产业进入规模落地期 1.1需求端:大模型训练与推理对Scale-up域刚性需求显现 万亿参数成为标配,大模型持续沿Scaling Law演进。1)参数规模方面:2020年GPT-3参数规模为1750亿,2023年GPT-4参数规模跃迁至约1.8万亿,2025年Llama-4、Kimi K2、xAI Grok4等模型将万亿级参数与万卡级集群规模确立为新常态,Claude Mythos 5参数量进一步突破10万亿级。2)数据量方面:Qwen 2.5-Max训练数据量超过20万亿token,DeepSeek-V3训练数据量约14.8万亿,AI模型大模型面向的任务场景日趋丰富,数据量加码下泛化能力得以提升。参数规模与数据量双向增长下,2020-2025年大模型训练算力需求激增近1000倍,模型参数量的增长带动训练训练成本倍数级增长,前沿模型训练成本每年约2–3倍增长,至2027年或超10亿美元,对基础设施端提出挑战。 来源:《超节点技术体系白皮书》,国金证券研究所 MoE架构全面普及,推高高频All-to-All通信需求。2024-2025年以DeepSeek-V2/V3为代表的MoE架构兴起,目前GLM-5.1、Kimi K2.5、Gemini 3.1 Pro、Llama 4等前沿大模型均基于MoE架构。MoE架构引入的专家并行(EP)要求高频All-to-All通信,即每个token需要被路由到少量专家,且路由结果高度动态,流量模式呈现不可预测的稀疏多播特征,推高算力需求的同时,对互联带宽、延迟和动态调度能力提出了远超传统架构的要求。 传统服务器集群面临通信墙、功耗墙、复杂度墙三大瓶颈:千亿级模型一次梯度同步即TB级数据,传统以太网难以承受;高密度AI芯片推高功耗,传统风冷无法满足散热需求;万级处理器带来故障常态化,放大传统集群运维复杂度。传统服务器集群基于Scale-out架构,通过通用以太网连接大量标准化服务器,张量并行(TP)、流水并行(PP) 和序列并行(CP)产生大量跨节点网络通信,跨服务器的带宽与时延成为根本瓶颈,制约模型训练效率提升。 Scale-up超节点突破Scale-out计算瓶颈,成为新一代算力基础单元。超节点基于Scale-up理念,将多颗AI处理器通过大带宽总线互联形成一个逻辑上的超节点,实现计算资源的紧密耦合和高效协同,天然适配MoE通信密集型模型架构,且基于Scale UP总线的超节点,大模型训练速度可提升20%以上。超节点提供大带宽、低时延的互联能力,内存统一编址可避免传统架构中跨节点内存访问的性能骤降问题,同时标配液冷、集中供电、RMC管理,使得数十万亿参数训练成为可能。 1.2供给端:海内外厂商超节点产品密集发布 NVIDIA为服务器到机柜级计算机的先行者。回顾从Volta到Rubin系列的演进,NVIDIA的技术战略非常清晰:通过算力、互联、存储和封装等多个维度的协同创新,实现系统层面的指数级性能增长。2020年,N