您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[长城证券]:深度剖析HBM千亿蓝海,AI算力激战下供需新格局 - 发现报告

深度剖析HBM千亿蓝海,AI算力激战下供需新格局

电子设备2025-08-21长城证券艳***
AI智能总结
查看更多
深度剖析HBM千亿蓝海,AI算力激战下供需新格局

评级:强于大市 长城证券产业金融研究院科技首席分析师:唐泓翼执业证书编号:S1070521120001科技分析师:周安琪执业证书编号:S10705250300012025年08月21日 一一AI助推需求高增长,半导体存储涨价周期延续上行 将家侧2:单机平均存请存量翻2/4倍,将带动总零求教倍增长 乘AI浪潮HBM需求高增,代际切换或催生价格分化机遇 求侧1:CSP厂商资本开支持续增长,AI算力促化AI服务器出货量激增 →25年4T服务要净谨车或有型达15%以上,预计26年AT服务要出货量格达251万合,网比增长17.2%, 目录 一、HBM复盘:打破AI算力传统内存墙瓶颈,3D堆叠DRAM的16年崛起之路 二,HBM需求:CSP(云服务提供商)资本开支动AI服务器放量+配置升级,推动HBM需求高增 ·一张图拆解HBM需求:CSP(云服务提供商)资本开支加码,AI服务器量增&HBM配置升级,共推需求高增◆HBM市场爆发:AI服务暴拉动下,预计25年/26年HBM总位元需求量同比增遂分别达+89%/+67%HBM下游应用场卡:25年AT服务举出货占比将升至15%以上,未来两年AT服务器出货量CAGR~17%+HBM下游需求格局:2025年NVIDIAGPU消耗HBM超五成,预测2026年ASIC需求或同比激增50%以上●HBM配置需求:英伟达主流GPU配置采用HBM3E,下一代Rubin架构GPU或推高HBM4应用题数 三、HBM供给:原厂坚定加速HBM产能扩张节奏,产线代际升级势在必行 ★一张图拆解HBM供给原厂持续加选HBM扩产节奏,HBM产线往更高端代际升级●HBM厂商竞争格局:SK海力士/三星/美光三家奎断,25年/26年HBM市占率比例预计从5:3:2调整为5:2:3●HBM代际竞争格局:当前主流HBM3E25年占比有望超95%,预计HBM4代际将于26H2接棒市场主流HBM供给端产能:SK海力士&美光25年产能均售馨,预计25年/26年HBM总位元供给量同比+84%/+47%●HBM产能展望:三大原厂发力积板扩产,测算25年/26年原厂HBMTSV月产能或有望至39万片/48万片 四、HBM供需及价格研判:供给相对充足,需求高增与高端选代催化价格上行 ●HBM供需研判:测算2025-2026年HBMS/DRatio将分别达45%/27%:供第差距缺口有望进-步缩小HBM价格研判划:预计25年/26年HBMASP将达1.76/1.84美元/Gb,高端产品选代助推未来价格上行 目录 五、HBM未来演进:HBM416Hi或26年落地,散热/链合等技术升级适配未来需求 HBM当前进展:2025年原厂HBM3E12Hi已量产并成为主流,下一代HBM416Hi或有塑26年实现●HBM未来路线:HBM4→HBM8送代,随I/O数/堆叠层数/单层客量升级向混合键合等技术滨进 六、AI时代存储趋势:AI应用落地推升存储需求,NAND/DRA.M价格或延续上涨 ●DRAM行业供需跟踪:预计2025年DRAM位元供需比达97.9%,价格有望上涨●NANDFlash行业供等跟踪:预计2025年NANDFlash位元供需比达98.3%,价格有望上涨行业下游需求:AI时代数据量激增,AI手机/AIPC/AI服务器应用落地推动存储需求提升●行业价格展望:预估25Q3季度DRAM/NANDFlash合约价季涨幅分别为15-20%/5-10%,延续上涨态势 七、投资建议及风险提示: HBM动态:英伟达新一代RubinUItra平台驱动HBM4E需求,SK海力士宣布HBM4E和台积电展开合作 AI大算力浪潮催生新动能,芯片国产替代坚定推进,重点关注AI产业链相关公司及“龙头低估”&“团境反转”企业, 国产AI存力产业链:供给端减产及AI相关需求强劲,推动存储价格继续上涨,TrendForce预计25Q3DRAM合约价环比提升5%-10%,NAND合约价环比提升5%~10%。同时:国内云计算与互联网厂商资本开支增长,国产替代趋势不改,重点关注江波龙(大容量存储龙头)测起科技(存储接口芯片龙头),联瑞新材(HBM关链填料)等 ·风险提示:AI落地需求低于预期风险;地缘政治风险;行业竞争加剧风险;技术进展不及预期等。 附录一:HBM产业链 附录二:中国存储企业整装待发 1.1HBM复盘:从HBM1到HBM3E(容量1GB→36GB/带宽128GB/s→1.2TB/s),“内存墙”的突破之路 ●HBM(HighBandwidthMemory高带宽存储器):专为满足海量数据处理需求设计的DRAM技术,通过准受内存芯片和TSV(Through-SiliconVia硅通孔)技术与微凸点(Microbump)互连来实现更高的带宽,更大的内存容量和更低的功耗,从而解决传统内存技术在处理高性能计算和图形密集型应用时面临的带宽瓶颈间题 二、HBM需求:CSP资本开支撬动AI服务器放量+配置升级,推动HBM需求高增 2.1HBM市场爆发:AI服务器拉动下,预计25年/26年HBM总位元需求量同比增速分别达+89%/+67% +HBM市场规模:美光预计将2025年HBM市场规模上修至350亿美元,据Yole预测2026年HB.M市场规模将达460亿美元(YoY+35%),到2030年全球HBM市场有望达980亿美元,24-30年CAGR~33%,AI服务器强劲需求带动下,HBM市场正在经历指数级增长,根据Yole预测,2025年全球HBM市场将增至340亿美元:据Yole预测,到2030年,全球DRAM市场规模预计为1940亿关元,其中全球HBM营收预计将超过DRAM市场的50%,将达到980亿关元,复合年增长率达33%,其中测算2026年HBM市场规模将达460亿美元,同比增长35%。2025年4月、据芯智讯报道、美光近期已将2025年HBM市场规模从300亿美元上修至350亿美元,据SK海力士HBM业务规划组织主管ChoiJo0n-yong表示,受惠于终端用户对AI的刚性需求支撑,HBM市场规模还有很大成长空间:预估至2030年:每年或长幅度(CAGR)应有机会达到30% *HBM总位元需求量&增速:据美光预计,2025年HBM总位元需求量将达22.5亿GB。测算2026年HBM总位元需求量将达34.05亿GBYoY+67%),以每赖HBM3e-12HI提供36GB计算,需求量至少高达9458万颗题,据Yole款据,自2022年底ChatGPT横空出世以来,生成式AI蓬钠发展,推动2023年HBM比特出货量同比+187%,2024年更是进-一步想升193%。据美光预计,2025年全年HBM需求容量将达22.5亿GB,以每颗HBM3e-12Hi提供36GB计算,需求量至少高达6250万颗。我们测算2026年HBM总位元需求量将达34.05亿GB(同比增长67%):以每赖HBM3e-12Hi提供36GB计算,需求量至少高达9458万赖 2.2HBM下游应用场景:25年AI服务器出货占比将升至15%以上,未来两年AI服务器出货量CAGR~17% ,据TrendForce预测,2025年全球AI服务出货量年增速将达24.3%,预计占比有望提升至15%以上,预计26-27年全球AI服务器出货量有望分别年增17.2%/16.8%.据TrendForce,北关大型CSP(CloudServiceProvider:云服务提供商)目前伤是AIServer(服务器)市场需求扩张主力:加上tier-2数据中心和中东、欧洲等主权云项日助力:带求稳健。在北美CSP(云服务长供商)与OEM客户需求驱动下,预估2025年AI服务器出货量将维持双位数成长,TrendForce预测2025年全球AI服务器出货量年增24.3%:预计25年AI服务举出货量占整体服务举比例有望进一步提升至15%以上。据TrcndForcc预计,2026-2027年全球AI服务器出货量将有望分别年增17.2%/16.8% AI已成为云业务增长的核心驱动力,北美四大CSP(云服务提供商)均对AI投入保持坚定,据彭博一致预期数据,全球四大CSP(云服务提供商)25/26年预期资本开支合计分别同比+52%/+19%据TrcndForcc报道,1)Microsoft:2025年仍聚焦投资AI领域,AIScrvcr布局方面,Microsoft主要采用NVIDLA的GPUAI方案,自研ASIC的进展相对较慢,预估其2026年新--代Maia方案才会较明显放量。2)Meta:2025年因为新数据中心落成,对通用型Server的需求显著增加,多数Server采用AMD平合,也积板布局AIServer基础设施,同步拓展自研ASICAl,预估其MTIA芯片2026年出货量有机会达翻倍成长,3)Go0gle:2025年受惠主权云项日以及东南亚新数据中心落成,显著报升Scrver管求,此外,Google本是自研芯片布局比例较高的业者,其针对AI推理用的TPUv6c已于上半年逐步放量成为主流。4)AWS:自研芯片目前以Trainiumv2为主力平合,AWS已启动不同版本的Trainiumv3开发,预计于2026年陆续量产。受惠于Trainium平合扩充与AI运算自研策略加速,预估2025年AWS自研ASIC出货量将达双倍成长,为美系CSP(云服务提供商)最强,据彭博一致预期数据,全球四大CSP(云服务提供商)25/26年预期资本开支合计分别同比+52%/+19%达3294亿美元/3930亿美元。 2.3HBM下游需求格局:2025年NVIDIAGPU消耗HBM超五成,预测2026年ASIC需求或同比激增50%以上 ●HBM主要面向AI服务器领域应用,其下游客户主要为GPU厂商和ASIC厂商,其中据TrendForce数据,2024年NVIDIA,AMD的GPU分别占HBM消耗量的62%,9%其余(主要为CSP云服务提供商)的ASIC)合计占29%。在高端AI服务器领域:GPU搭载HBM态片已经成为主流配置,广泛应用于高性能计算、人工智能等场景。HBM主娶面向AI服务器领域应用,其下游客户主要为GPU厂商和ASIC厂商,据EEWORLD报道,据Trendforce数据,2024年,整体HBM消耗量达6.47BGb、年增237.2%,其中NVIDLA、AMD的GPU分别占消耗量的62%、9%,其他业者(主要为CSP(云服务提供商)的ASIC所需)占29%,分产品看HBM2c、HBM3、HBM3c贡献的消耗量成三足鼎货预估上修,其中NVIDIA、AMD、Go0gle、AWS、其他业者分别占消耗量的70%、7%、10%、8%、5%,分产品而言HBM3e为消耗量大宗、尤以HBM3e12hi最多。 ·定制AI芯片需求的激增正在重塑竞争格局,预计26年以Go0gleTPU为代表的ASICHBM位元需求量将大幅增长,测算同比增速或有望超50%.专用ASIC(专为运行特定AI模型设计)已被证明比Nvidia或AMD日益品贵的GPU更具本效益和能效,包括亚马避、谷歌和Meta在内的科技巨头纷纷加速自研专用ASIC,HBM对于处理AI工作负载中的高速数据至关董要,随差ASIC的普及,对HBM的需求也日益增长:据2025年6月美光业绩发布会上提到:“ASIC平台”公可与英伟达和AMD并列为其HBM大批量出货的四大客户:亚马逊,谷歌等企业自研ASIC平合正成为HBM采购新主方。随若全球科技企业搬起ASIC自研热潮,考虑到北美国大CSP(云服务提供商)均有ASIC规划且25/26年预期资本开支合计分别同比+52%/+19%预计26年以Go0gleTPU为代表的ASICHBM位元需求量将大幅增长,测算同比增速或有望超50%, 2.4HBM配置需求:英伟达主流GPU配置采用HBM3E,下一代Rubin架构GPU或推高HBM4应用颗数 主流数据中心GPU均采用HBM技术。根据英伟达官网,英伟达G