您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:公司深度:全球AIPCB龙头,深度受益GPU+ASIC需求提升 - 发现报告

公司深度:全球AIPCB龙头,深度受益GPU+ASIC需求提升

2025-06-15郑震湘、佘凌星、刘嘉元国盛证券董***
AI智能总结
查看更多
公司深度:全球AIPCB龙头,深度受益GPU+ASIC需求提升

海外CSP持续加码AI投资,GPU+ASIC需求强劲。25Q1海外四大CSP合计资本开支为711亿美元,同比增长64%,展望2025年,meta上调2025年全年资本支出为640-720亿美元,亚马逊持续加大AI领域投入,2025年资本开支预计为1000亿美元,海外云厂AI服务器及相关投资依旧强劲,推理端需求爆发进一步拉动算力芯片市场空间,从芯片端来看,英伟达GB200 NVL已向终端客户交付,主要超大规模客户每周各部署近1000个NVL72机架,GB300量产在即。ASIC方面,北美CSP加速自研ASIC布局,定制化需求火热,根据Marvell数据,预计2028年定制加速计算芯片市场规模将达429亿美元,算力芯片需求提升+方案不断迭代预计带动AI PCB进一步创新升级,实现产品量价齐升。 高阶HDI为发展趋势,胜宏科技有望引领行业发展。高密度化是PCB技术发展重要方向,对电路板孔径大小、布线宽度、层数、叠孔结构等方面提出较高要求,HDI是PCB高密度化先进技术体现,HDI发展下,其应用已不仅局限于PCB板作用,而是与芯片研发紧密合作,分担载板部分功能要求,重要性进一步提升。英伟达引领推动采用HDI方案,我们预计伴随算力芯片性能持续升级,及英伟达过往AI HDI方案长期运行稳定性与能效优势得到验证,海外及国产算力供应链有望同步跟随采用HDI方案,进一步推动HDI产业趋势加速。当前全球AI HDI产能稀缺,胜宏科技5阶、6阶HDI大批量生产,并加速布局10阶30层HDI产品研发认证,同时公司持续扩产,厂房四建设项目计划新增6阶HDI产能12万平方米/年,越南HDI项目计划高阶HDI年产能15万平方米,且公司深度绑定大客户预研下一代产品,有望持续引领行业。 完善高多层板布局,发展再添新动力。服务器平台升级对技术和装备的升级提出要求,多层PCB随层数增长价格显著提升,据Prismark数据,18层以上PCB单价约是12-16层价格3倍。我们认为由于14层板以上的高多层板制造难度提升,价格或将呈现非线性的显著增长。当前胜宏科技已实现32层高多层的批量化作业,并具备70层高精密多层线路板量产能力,同时公司绑定国际头部客户,参与客户新产品预研,突破超高多层板、高阶HDI相结合的新技术,实现产品+客户双轮驱动成长,同时泰国多层板项目计划年产能150万平方米,其中,14层以上多层板占募投项目规划产能的比例为33.33%,进一步提升公司高多层板供应能力。 盈利预测及投资建议:我们认为伴随公司新产品放量及HDI与高多层新建产能爬坡,叠加全球头部客户示范效应下,全球市场进一步打开,公司客户结构进一步多元化, 公司业绩有望持续高增 ,预计公司2025/2026/2027年分别实现营收201.21/281.97/345.68亿元 , 归母净利润56/85/106亿元 , 对应PE为15.5/10.2/8.2x,看好公司全球高阶HDI龙头地位,维持“买入”评级。 风险提示:下游需求不及预期、行业竞争加剧、研发不及预期、数据测算误差。 财务指标 财务报表和主要财务比率 资产负债表(百万元) 现金流量表(百万元) 1、海外AI持续高景气,GPU+ASIC需求强劲 海外CSP持续加码AI投资,2025年资本开支维持高位增长。2025Q1海外四大CSP合计资本开支为711亿美元,同比增长64%,环比基本持平,2024年海外四大CSP合计资本开支为2230亿美元,同比增长56%,CSP持续加码AI服务器及相关投资。展望2025年,meta上调2025年全年资本支出为640-720亿美元(前值:600-650亿美元); 亚马逊越来越多地投资于Trainium等定制芯片,2025年资本开支预计为1000亿美元。 谷歌预计2025年资本支出为750亿美元,维持指引;微软FY25Q3包括融资租赁在内的资本支出为214亿美元,略低于预期,原因是数据中心租赁交付时间的正常变化,公司预计FY25Q4资本支出将环比增加,资本支出总体上与上季度指引持平(FY25Q3与FY25Q4维持FY25Q2水平,即包括融资租赁在内的资本支出226亿美元)。我们看到2024年各大CSP持续加码AI投资,展望2025年,meta上调资本开支指引,其余CSP并未下调资本开支指引,2025年资本开支维持高位增长。 图表1:海外CSP年度资本开支(亿美元) 图表2:海外CSP年度资本开支同比增速 图表3:海外CSP季度资本开支(亿美元) 图表4:海外CSP资本开支展望 GPU方面:英伟达营收再创历史,GB系列产品强劲交付 FY26Q1营收再创历史记录。英伟达公布FY26Q1业绩,FY26Q1营收440.62亿美元,同比+69%,环比+12%,实现毛利率60.5%,yoy-17.9pts,qoq-12.5pts,non-gaap毛利率为61%,剔除H20费用影响后为71.3%,毛利率下降主要系H20带来的45亿美元费用影响,实现净利润187.75亿美元,yoy+26%,qoq-15%。2025年4月英伟达接到美国政府通知,表示H20出口到中国市场需要许可证,公司在FY26Q1因H20产品库存过剩和采购义务而产生45亿美元的费用,FY26Q1H20产品营收为46亿美元,在FY26Q1无法额外交付约25亿美元的H20产品。展望FY26Q2,公司预计实现营收450亿美元,上下浮动2%(反映近期出口管制限制导致的H20收入约80亿美元的损失)。 预计GAAP和非GAAP毛利率分别为71.8%和72.0%,上下浮动50个基点。 图表5:英伟达FY26Q1业绩 Blackwell上量较快,GB300量产在即。GB200 NVL的推出是一项根本性架构变革,旨在支持数据中心规模的工作负载,并实现最低的每token推理成本。目前机架出货量已强劲向终端客户交付。根据英伟达FY26Q1业绩说明会,GB200 NVL机架现已全面向模型构建商、企业和主权客户开放,用于开发和部署人工智能。平均而言,主要超大规模客户每周各部署近1000个NVL72机架(即72000个BlackwellGPU),并计划在本季度进一步提升产量。例如,微软已部署数万颗BlackwellGPU,预计将与关键客户OpenAI一起提升至数十万颗GB200。GB300系统的样品已于5月初在各大通信服务提供商((CSP)开始提供样品,预计本季度末开始量产发货。GB300将采用与GB200相同的架构、物理尺寸以及电气和机械规格。B300GPU相比B200,在密集FP4推理计算性能上提升50%。 推理端需求爆发。OpenAI、微软和谷歌的token生成量呈阶梯式跃升。微软在第一季度处理超过100万亿个token,同比增长五倍。AzureOpenAI指数级增长,体现了对AzureAIFoundry及微软平台上其他人工智能服务的强劲需求。 从英伟达需求来看,英伟达在全球各地推动AI基建合作计划,推动各国构建国家级的AI基础设施,我们认为全球AI基建推动将为英伟达芯片带来巨大需求量,英伟达产业链将深度受益于英伟达芯片全球市场进一步打开。 1)沙特:英伟达将向沙特人工智能公司Humain提供芯片,用于建设容量最高可达500兆瓦的数据中心。 2)阿联酋:英伟达将在未来三年向阿联酋每年出口50万颗最先进的AI芯片。 3)欧洲方面:NVIDIA于6月11日宣布,其正在携手欧洲各国、科技和行业领导者,共同建造NVIDIABlackwellAI基础设施,以强化数字主权、支撑经济增长。法国、意大利、西班牙和英国等国正在构建国内AI基础设施,并打造了一个由技术和云提供商以及通信提供商组成的生态系统,这些部署将为主权AI提供超过3,000ExaFLOPS的NVIDIA Blackwell计算资源。 法国:MistralAI正与NVIDIA合作,第一阶段目标是构建一个由18,000个NVIDIA Grace Blackwell系统支持的端到端云平台,并计划在2026年扩展到多个地点。 英国:NVIDIA正与NVIDIA云合作伙伴Nebius和Nscale合作,为各种规模的企业和商业组织释放先进的AI潜能。在LondonTechWeek上,多家云提供商都宣布了其AI基础设施开发计划的第一阶段,将部署14,000个NVIDIABlackwellGPU驱动新的数据中心,让全英国都能广泛使用可扩展的、安全的AI基础设施。 德国:NVIDIA及其合作伙伴正在为欧洲制造商打造全球首个工业AI云。这座AI工厂将由NVIDIA DGX™B200系统和搭载10,000个NVIDIA Blackwell GPU的NVIDIA RTX PRO™服务器提供支持,让欧洲的行业领导者能够加速各种制造应用,从设计、工程和仿真到工厂数字孪生和机器人。 意大利:NVIDIA正与Domyn及该国政府合作,共同提升意大利的主权AI能力。 Domyn正采用NVIDIA Grace Blackwell超级芯片在其超级计算机Colosseum上开发Domyn Large Colosseum推理模型,以支持受监管行业采用AI。 ASIC方面:北美CSP加速自研,ASIC需求持续提升 定制加速计算芯片需求涌现,2028年市场规模有望达429亿美元。目前,训练阶段的训练集群对加速计算芯片的需求已经提升到万卡数量级。随着AI模型训练要求的日益增长,向10万卡级别迈进已然在望。在推理阶段,因计算量与业务应用息息相关,单个推理集群所需加速计算芯片数量通常低于训练集群,但推理集群的部署数量却极为可观,预计将达到百万级,远多于训练集群的数量。AI算力集群特别是推理集群对加速计算芯片的庞大需求,驱动ASIC快速成长。根据Marvell,2023年定制加速计算芯片市场规模为66亿美元,占加速芯片的16%,预计到2028年定制加速计算芯片市场规模将达429亿美元,占加速芯片的25%,2023-2028年CAGR为45%。 图表6:推理集群的部署数量极为可观 图表7:定制加速计算市场规模扩大逻辑 图表8:数据中心定制加速计算市场规模 谷歌作为行业领先者,已推出TPU v6 Trillium芯片,重点聚焦能效比提升及AI大模型优化,预计2025年将大规模替代现有TPU v5。在新一代产品研发上,谷歌改变了此前仅与博通(Broadcom)合作的单一供应链模式,新增与联发科(MediaTek)的合作,形成双供应链布局。这一举措不仅能提升设计灵活性,降低对单一供应链的依赖风险,还有助于加强在高阶先进制程领域的布局。 亚马逊云科技(AWS)目前以与美满电子(Marvell)协同设计的Trainium v2芯片为主力产品,主要支持生成式AI及大型语言模型的训练应用。同时,AWS也在与Alchip合作开发Trainium v3。据TrendForce预测,2025年AWS的ASIC芯片出货量将大幅增长,年增速在美系云计算服务提供商(CSP)中表现最为突出。 Meta在成功部署首款自研AI加速器MTIA后,正与博通联合开发下一代产品MTIAv2。 由于Meta对AI推理负载有高度定制化需求,MTIA v2的设计特别注重能效优化与低延迟架构,以平衡推理性能与运营效率。 微软(Microsoft)当前在AI服务器搭建中仍主要采用搭载英伟达GPU的解决方案,但也在加速自研ASIC芯片的开发。其Maia系列芯片主要针对Azure云端平台的生成式AI应用及相关服务进行优化,下一代Maia v2的设计已确定,后端设计及量产交付由GUC负责。除深化与GUC的合作外,微软还引入美满电子共同参与Maia v2进阶版的设计开发,以强化自研芯片的技术布局,有效分散开发过程中的技术与供应链风险。 图表9:北美四大CSP自研芯片进展 纬创2025年5月营收2084亿新台币,同环比高速增长,彰显ASIC需求爆发。根据TrendForce,CSP把重心从AI训练转往AI推理,预估将逐步推升AI推理服务器占