您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[太平洋]:算力系列报告(一):AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量 - 发现报告
当前位置:首页/行业研究/报告详情/

算力系列报告(一):AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量

信息技术2024-01-25张世杰、李珏晗太平洋黄***
算力系列报告(一):AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量

请务必阅读正文后的重要声明证券研究报告|公司深度报告2024年1月25日AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量—算力系列报告(一)太平洋证券电子组 张世杰 博士分析师登记编号:S1190523020001太平洋证券电子组 李珏晗分析师登记编号:S1190523080001 请务必阅读正文后的重要声明2报告摘要•HBM助力AI服务器向更高带宽、容量升级。HBM即高带宽存储,由多层DRAMdie垂直堆叠,每层die通过TSV穿透硅通孔+μbumps技术实现与逻辑die连接,使得8层、12层die封装于小体积空间中,从而实现小尺寸于高带宽、高传输速度的兼容,成为高性能AI服务器GPU显存的主流解决方案。目前迭代至HBM3的扩展版本HBM3E,提供高达8Gbps的传输速度和16GB内存,由SK海力士率先发布,将于2024年量。•需求端:HBM成为AI服务器标配,催化其市场规模超50%增长。HBM主要应用场景为AI服务器,最新一代HBM3e搭载于英伟达2023年发布的H200。根据Trendforce数据,2022年AI服务器出货量86万台,预计2026年AI服务器出货量将超过200万台,年复合增速29%。AI服务器出货量增长催化HBM需求爆发,且伴随服务器平均HBM容量增加,经测算,预期25年市场规模约150亿美元,增速超过50%。•供给端:三大厂产能供不应求,核心工艺变化带来新增量。HBM供给厂商主要聚集在SK海力士、三星、美光三大存储原厂,根据Trendforce数据,2023年SK海力士市占率预计为53%,三星市占率38%、美光市占率9%。HBM在工艺上的变化主要在CoWoS和TSV,配套供应链及国产替代厂商有望受益:1)封测:通富微电、长电科技、太极实业、深科技;2)设备:赛腾股份、中微公司、拓荆科技;3)材料:雅克科技、联瑞新材、壹石通、华海诚科。•风险提示:下游服务器需求不及预期风险;行业竞争加剧风险;技术发展不及预期风险。 请务必阅读正文后的重要声明3IHBM助力AI服务器向更高带宽、容量升级...................................................3II需求端:HBM成为AI服务器标配,催化其市场规模超50%增长...........................9III供给端:三大厂产能供不应求,核心工艺变化带来新增量...........................14IV主要公司分析....................................................................................20 请务必阅读正文后的重要声明4HBM即高带宽存储器,应用场景集中在服务器GPU显存图表:HBM原理示意图6资料来源:AMD、太平洋证券研究院图表:HBM原理示意图资料来源:AMD、太平洋证券研究院•HBM(HighBandwidthMemory)即高带宽存储器,用于GPU与CPU之间的高速数据传输,主要应用场景集中在数据中心高性能服务器的GPU显存,小部分应用于CPU内存芯片。HBM同样为3D结构,由多层DRAMdie垂直堆叠,每层die通过TSV(Through Silicon Via)穿透硅通孔+μbumps技术实现与逻辑die连接,再通过中阶层与GPU/CPU/SoC连接,使得4层、8层、12层等数量die封装于小体积空间中。 请务必阅读正文后的重要声明图表:4层Dramdie到8层Dramdie资料来源:Sk海力士、太平洋证券研究院图表:HBM演进路径资料来源:SK海力士官网,美光官网,太平洋证券研究院5•HBM经多次处理速度迭代,现至HBM3的扩展版本HBM3E,助力服务器推理性能提升。HBM1最早于2014年由AMD与SK海力士共同推出,作为GDDR竞品,为4层die堆叠,提供128GB/s带宽,4GB内存,显著优于同期GDDR5。HBM2于2016年发布,2018年正式推出,为4层DRAMdie,现在多为8层die,提供256GB/s带宽,2.4Gbps传输速度,和8GB内存;HBM2E于2018年发布,于2020年正式提出,在传输速度和内存等方面均有较大提升,提供3.6Gbps传输速度,和16GB内存。HBM3于2020年发布,2022年正式推出,堆叠层数及管理通道数均有增加,提供6.4Gbps传输速度,传输速度最高可达819GB/s,和16GB内存HBM3E由SK海力士发布HBM3的增强版,提供高达8Gbps的传输速度,24GB容量,计划于2024年大规模量产。HBM经多次处理速度迭代,现至HBM3的扩展版本HBM3E 请务必阅读正文后的重要声明图表:三大存储原厂HBM演进路径资料来源:Trendforce,太平洋证券研究院6HBM经多次处理速度迭代,现至HBM3的扩展版本HBM3E 请务必阅读正文后的重要声明7HBM助力AI服务器向更高带宽、容量升级图表:GDDR5与HBM面积对比资料来源:AMD、太平洋证券研究院图表:内存能耗与逻辑ic能耗平衡拐点资料来源:AMD、太平洋证券研究院•目前主流显卡使用的显存为GDDR5,但在应用中仍存在痛点:1)消耗大量PCB面积:GPU核心周围分布12/16颗GDDR5芯片,而GDDR芯片尺寸无法继续缩小,占据更大空间,同时也需要更大的电压调节模块,2)GDDR5的功耗提升达到了对GPU性能提升产生负面影响的拐点:由于平台和设备需要在逻辑芯片与DRAM之间的实现功耗平衡,而当前GDDR进入功能/性能曲线的低效区,不断增长的内存功耗在未来会阻碍GPU性能提升。 请务必阅读正文后的重要声明图表:GDDR5与HBM对比资料来源:AMD,太平洋证券研究院8•相较于传统GDDR解决方案,HBM在低功耗、超带宽、小尺寸等方面优势显著。HBM助力AI服务器向更高带宽、容量升级 请务必阅读正文后的重要声明9IHBM助力AI服务器向更高带宽、容量升级...................................................3II需求端:HBM成为AI服务器标配,催化其市场规模超50%增长........................9III供给端:三大厂产能供不应求,核心工艺变化带来新增量...........................14IV主要公司分析....................................................................................20 请务必阅读正文后的重要声明10需求端:HBM广泛应用于AI服务器,市场主流服务器匀已采用HBM方案图表:最新一代HBM3E应用于NVH200资料来源:英伟达官网、太平洋证券研究院图表:HBM迭代为AI服务器带来的带宽提升资料来源:英伟达官网、太平洋证券研究院•HBM因其高带宽、低功耗、小体积等特性,广泛应用于AI服务器场景中。HBM的应用主要集中在高性能服务器,最早落地于2016年的NVP100GPU(HBM2)中,后于2017年应用在V100(HBM2)、于2020年应用在A100(HBM2)、于2022年应用在H100(HBM2e/HBM3),最新一代HBM3e搭载于英伟达2023年发布的H200,为服务器提供更快速度及更高容量。0123456P100V100A100H100H200带宽(TB/s) 请务必阅读正文后的重要声明图表:HBM在AI服务器的应用资料来源:NVIDIA官网,AMD官网,太平洋证券研究院11需求端: HBM广泛应用于AI服务器,市场主流服务器匀已采用HBM方案 请务必阅读正文后的重要声明12需求端: AI服务器出货量增长催化HBM需求爆发,市场规模高速增长图表:AI服务器出货量年化增速预计约29%资料来源:TrendForce、太平洋证券研究院图表:HBM规模年化增速预计约31%资料来源:太平洋证券研究院•AI服务器出货量增长催化HBM需求爆发,经测算,HBM 2025年市场规模将超过150亿美元,增速超50%。全球服务器增虽长较为稳健,但随着大数据模型训练需求AI服务器出货量呈爆发式增长,2022年AI服务器出货量86万台,渗透率不断提升,AI服务器在整体服务器占比10%左右,预计2026年AI服务器出货量将超过200万台,预计年复合增速29%。同时,主流AI服务器HBM容量需求从40GB向80GB、141GB升级,带动平均HBM容量提升。我们测算,2025年HBM全球市场规模将达到150亿美元,同比增速68%。0%5%10%15%20%25%30%35%40%45%05010015020025020222023E2024E2025E2026E全球AI服务器出货量(万台)yoy00.511.522.5305010015020025020222023E2024E2025EHBM规模测算(亿美元)yoy 请务必阅读正文后的重要声明图表:HBM规模测算资料来源:太平洋证券研究院13需求端: AI服务器出货量增长催化HBM需求爆发,市场规模高速增长20222023E2024E2025E全球AI服务器出货量(万台)85.50118.30150.40189.50yoy38%27%26%平均HBM容量(GB)40.056.0086.10110.50AI服务器HBM需求增量(GB*万台)13680.026499.251797.883759.0yoy94%279%512%单价(美元/GB)20.035.030.025.0HBM规模测算(亿美元)27.3692.75155.39209.40yoy239%68%35% 请务必阅读正文后的重要声明14IHBM助力AI服务器向更高带宽、容量升级...................................................3II需求端:HBM成为AI服务器标配,催化其市场规模超50%增长...........................9III供给端:三大厂产能供不应求,核心工艺变化带来新增量...........................14IV主要公司分析....................................................................................20 请务必阅读正文后的重要声明15供给端:三大存储原厂占据主要市场份额图表:HBM三大存储原厂市场份额资料来源:Trendforce、太平洋证券研究院图表:HBM4封装方式变化将带来格局再演化资料来源:国家统计局、太平洋证券研究院•HBM供给厂商主要聚集在SK海力士、三星、美光三大厂,SK海力士领跑。三大存储原厂主要承担DRAMDie的生产及堆叠,展开技术升级竞赛,其中SK海力士与AMD合作发布全球首款HBM,23年率先供应新一代HBM3E,先发奠定市场地位,主要供应英伟达,三星供应其他云端厂商,根据TrendForce数据,2022年SK海力士市占率50%、三星市占率40%、美光市占率10%左右,2023年SK海力士市占率预计为53%,三星市占率38%、美光市占率9%。0%10%20%30%40%50%60%70%80%90%100%20222023ESK海力士三星美光 请务必阅读正文后的重要声明图表:三大厂HBM规划资料来源:Trendforce,太平洋证券研究院16供给端:三大存储原厂占据主要市场份额 请务必阅读正文后的重要声明17供给端:存储原厂加码HBM产能投放,预计24年提升2.5倍图表:三星及海力士计划扩充HBM产能资料来源:公司公告、太平洋证券研究院图表:HBM2产能释放用于生产HBM3资料来源:Trendforce、太平洋证券研究院•存储原厂加码HBM产能,SK海力士24年产能计划翻倍。SK海力士HBM3E将于24年上半年量产,目标24年HBM产能翻倍,24年资本