AI智能总结
1、服务器行业基本概况 ·服务器定义与分类:通用CPU服务器与普通计算机硬件架构相似,但在性能稳定性、安全性及可拓展性方面要求更高。服务器分类维度多样,受AI时代兴起影响,当前主流分类为通用CPU服务器和AI服务器。 ·服务器功能与价值:服务器是IT行业基础设施和发展基石,支撑业务系统和大模型训练与推理,是算力核心载体,在产业链中承上启下。其上游配套多,下游以大客户为主,存在被上下游挤压状态。其需求反映信息科技行业景气情况,是IT产业发展趋势的体现。 2、服务器历史发展阶段 ·大型机与小型机时代:服务器发展早期以技术迭代为核心,重点提升性能、安全性及稳定性。1999年,IBM推出1401计算机,成为首部部署过万的计算机,并助力IBM占据市场领先地位。随着摩尔定律推动芯片性能提升,服务器逐步向小型机时代过渡,底层指令集兼容发展刺激了行业需求,带来成本降低与价值提升。20世纪60年代后半期,小型机迎来高速增长,IBM成为该时期服务器产业的绝对霸主,其发展核心在于拥抱指令集等新技术并满足客户需求。 ·PC服务器时代:PC时代,X86架构实现服务器操作系统(软件)与芯片(硬件)的指令级解耦,推动互联网革命。早期服务器以RISC架构为主,性能与稳定性好但价格高昂,难以普及。英特尔X86(CISC)架构CPU验证了摩尔定律,每18个月集成电路晶体管数目翻倍,性能提升且成本递减,成服务器芯片新选择。1981年起,搭载X86架构处理器的设备成功,形成英特尔联盟。开放性与标准化是X86服务器成功的核心:标准化架构减少数据中心异构问题,开放生态降低开发者难度,丰富软硬件选择提升生产效率。惠普、IBM等厂商加入后,标准化设计的X86服务器通过规模效益降低成本,出货量提升。大型机成本约40万美元,而X86架构PC服务器仅几万人民币,显著降低互联网产业门槛。硬件性价比提升与软件生态繁荣叠加,推动PC服务器普及并形成正循环,成市场主流。 ·云计算时代:随着IT技术发展,云计算时代来临,分布式、资源池化及弹性扩展需求驱动IT部署从本地向云端迁移,实现资源节约与IT资源普惠化,降低用户使用IT的门槛,并催生按量付费等新商业模式。软件从传统模式向云SaaS模式转变,亚马逊、谷歌、阿里等企业推动全球云计算发展。20152017年,云计算服务器成为中国服务器发展的驱动主力,2016年云环境部署需求同比大幅提升,阿里云等云计算厂商对云计算服务器的需求及营收增速迅猛。云厂商通过技术应用与规模化运营降低客户使用成本。早期中国IT上云渗透率及CPU利用率较低,而云计算数据中心CPU平均利用率达传统数据中心五倍以上,技术驱动互联网产业革命,移动互联网发展推动行业扩容。 3、AI时代服务器需求变化与景气度 ·AI驱动需求升级:算力需求呈螺旋上升迭代趋势,计算核心从通用CPU转向GPU、GPGPU、TPU等AI加速器。AI服务器以并行计算为主,通用服务器以CPU逻辑判断为主。2023年ChatGPT出现后,AI模型与训练推理需求快速提升,需大量数据变形处理,能执行海量及并行计算的GPU服务器更适配大模型需求。从服务器价值量构成看,AI服务器中基于学习型的GPU成本占比超70%,高于CPU成本占比。 ·全球AI基础设施支出:云计算时代,互联网成服务器最主要下游行业,智算领域互联网需求占比从通算的40%左右升至50%-60%,引领作用更显著。全球服务器整机采购以美系云厂商为主,国内BBAT在国内占比超50%。AI技术高速增长,全球AI基础设施支出自2019年起两位数增长,2028年将超2000亿美金。服务器在AI基础设施中占比超95%,带加速功能的服务器是AI平台首选,占比超70%,预计2028年超75%,五年复合增速42%。互联网厂商为训练大模型、服务用户、获取先发优势,持续提升AI投入,开启算力储备。国内阿 里未来三年资本开支将超过去十年总和(超3800亿);海外科技大厂2025年Q1资本开支同比增长50%-60%,国内自2024年三四季度起提速,2025年一季度维持高水平,中长期投入持续。当前AI服务器已放量一段时间,未来将持续全面放量。 ·行业景气度指标:BMC是服务器关键器件,台湾新骅公司是服务器BMC领域龙头,其数据是行业景气度先行指标。2025年1-4月,新骅公司相关数据同比大几十甚至翻倍增长,反映行业景气度向好。从技术看,超节点和三点一群是当前AI服务器主要发展方向。 4、AI服务器技术发展方向 ·技术趋势与优化方向:AI服务器技术从单卡算力提升转向系统化优化,从训练主导转向推理主导,通过软硬件协同创新突破性能限制。算力密度提升从芯片级转向芯片级与系统级并行,除制程提升外,采用双代或多代封装结合7倍力技术;同步升级内存带宽与互联技术,解决数据搬运瓶颈。推理层面引入FP8、FP6、FP4等低精度计算,用稀疏算法等降低推理成本。超大规模互联方面,BlackwellMV72机架支持72颗GPU互联,千卡集群算力超100亿Flops,未来Robin架构或实现更大规模GPU集群扩张。 ·国内外技术突破:算力服务器向超级点和集群发展,驱动因素为突破单机算力瓶颈、满足大模型算力需求、优化能耗与算力管理。技术扩展分横向(scaleout)与纵向(scaleup):scaleout处理相对独立并行数据;scaleup处理高频数据交叉场景,依赖超宽带、超低时延互联网络。国内互联网巨头(字节、阿里、百度)推进万卡集群建设,未来或达10万卡。海内外超节点技术突破上,海外英伟达从DDX发展到NBL72;国内华为推出CloudMatrix384,通过高速互联总线突破算力上限;国内移动宣布新品,支持six2万上限,性能大幅提升。 5、服务器行业竞争格局演变 ·能力等级与利润分层:服务器市场可按厂商能力等级分为12个等级,能力等级决定其在产业链中的地位、技术壁垒及利润空间。1-6级为低阶制造,以零件生产和基础组装为主,技术门槛低、同质化严重,主要由ODM厂商生产air 6级裸机服务器,毛利较低;7-10级为中高阶,有一定技术壁垒,如浪潮等厂商通过GDN模式实现深度定制化,air10级全系统交付需软件协同能力,毛率更高;11-12级为机柜级交付,是高阶能力,需跨机架、网络优化及云操作系统部署等系统能力,仅极少数头部厂商具备,技术壁垒高、能参与的厂商少。·发展阶段与格局变化:我国服务器厂商发展分三个阶段。1990-2010年是品牌建设期,品牌厂商靠技术打造产品和品牌;2010-2020年受云计算驱动,联合研发及ODM模式促进行业发展,品牌弱化。此阶段,云计算扩张使传统硬件架构难满足超大型数据中心需求,定制化服务器取代传统服务器成采购新标准,积极拥抱互联网需求的公司营收和份额增长,部分公司放弃业务,白盒厂商兴起并解构传统体系。ODM服务器厂商产品便宜、硬件定制化强、推新硬件积极,通用性弱但性价比高,云计算提升了对服务器质量的容忍度。下游客户向大厂集中使议价能力增强,白盒厂商入局降低产品附加值,综合实力和规模效应带来的低成本成竞争关键。2014-2015年,国产服务器厂商替代海外份额快速提升。2020年至今,AI和国产化是主要驱动因素,头部ODM厂商切入,格局有新变化,品牌与白牌厂商在AFC时代混战,未来白牌市场份额或提升。 ·盈利压力与厂商策略:服务器行业竞争激烈、市场化充分,短期盈利能力下降。竞争加剧因需求向头部大厂集中、客户议价能力增强及ODM厂商崛起。品牌厂商有两种应对策略:一是淡化品牌与白牌边界,提升性价比,以质量优势、交付速度和深度定制抢占互联网市场份额;二是放弃低利润业务,专注中高端产品,行业分化。以浪潮信息为例,其服务器业务占比高,受需求集中、客户议价及ODM崛起影响,毛利率渐进式下降。虽行业总量及营收提升,但毛利率和净利率短期承压,厂商需把握新需求机遇,实现商业模式转型。 6、服务器产业链投资机会 ·计算芯片与国产替代:AI服务器中计算芯片是核心,因AI发展依赖并行计算执行深度学 习过程,芯片在AI服务器中的成本占比大幅提升,高性能芯片需求迫切。随着服务器行业未来几年明显扩容,AI服务器芯片占比相比传统服务器显著提升。从芯片类型看,GPU与ASIC均有高速增长机会,当前加速卡中约九成是GPU,后续ASIC等非GPU芯片占比有望提升,预计2025年将有较明显提升。在国产替代方面,当前中国市场AI芯片以海外品牌(主要是英伟达)为主,但国内华为、寒武纪等厂商的芯片性能正陆续追赶,且从训练到推理切换过程中,国内与海外的差距有望缩小,国内厂商份额存在进一步提升空间。 ·HBM内存需求增长:HBM(高带宽内存)是3D堆叠构成的高带宽、高速低延迟内存,相比传统DDR,同等容量下体积更小,带宽量级领先,更适配AI应用场景。HBM发展历程中,海力士2013年成功研发HBM芯片,2017年下半年量产HBM2,20192020年三星、海力士、美光均推出HBM3产品,后续持续向HBM3迭代。HBM3适合数据中心、超级计算机及AI尖端技术场景,具有更低运行温度、更大容量及更高速率带宽优势。目前HBM已成为英伟达A100、H100及英特尔、AMD等高性能CPU/GPU的标配,且搭载容量持续提升。 ·高速PCB需求升级:受服务器高性能计算需求提升及网络系统高速发展推动,PCB需向高速、高多层方向发展,其中HDI类产品需求增长较快。未来PCB行业趋势为高层数、高纵横比、高密度、高传输速率,高端PCB玩家较少,产能相对紧张,2025年高速PCB因AI服务器放量增长,相关厂商已陆续扩产。全球PCB下游分散,通信占比32%、计算机占比24%、服务器占比约10%,未来服务器是行业增速较快的方向。 ·电源与散热升级:在AIDC趋势下,电源量价齐升。当前供电体系包括UPS与HVDC,HVDC功率变换环节少,效率与可靠性更高,二者共存。英伟达Blackwell架构B200GPU设计功耗1千瓦(较H100提升40%),GB200功耗约2700瓦,芯片功耗提升推动电源功率升级。机柜功率方面,2020年平均8.2千瓦,当前最高130250千瓦,20262027年若推出BlackwellUltra及Rubin系列AI服务器,功率有望达250 900千瓦,20282029年或超1000千瓦。散热方面,风冷芯片解热上限为1千瓦(B200已超此限制),液冷因散热效率高、低能耗、低噪声,渗透率将加速提升,其中冷板式因对服务器及机房硬件改动小,将为主导方向。导热材料主要由贝格斯、顾美丽、莱尔德等海外厂商主导;液冷板为铜制板式产品,内部含微通道流道,结构复杂、成本较高(单个约几百美金),可能取代风冷的热管、VC等模组。液冷作为新技术,为国内厂商提供验证窗口期,部分厂商已切入配套供应链,随着芯片国产替代率提升及技术追赶,国内散热供应商份额有望扩大。