您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[华金证券]:走进“芯”时代系列之七十六—HBM之“设备材料”深度分析:HBM迭代,3D混合键合成设备材料发力点 - 发现报告
当前位置:首页/行业研究/报告详情/

走进“芯”时代系列之七十六—HBM之“设备材料”深度分析:HBM迭代,3D混合键合成设备材料发力点

电子设备2024-03-04孙远峰、王海维华金证券付***
走进“芯”时代系列之七十六—HBM之“设备材料”深度分析:HBM迭代,3D混合键合成设备材料发力点

证券研究报告本报告仅供华金证券客户中的专业投资者参考请仔细阅读在本报告尾部的重要法律声明HBM迭代,3D混合键合成设备材料发力点走进“芯”时代系列之七十六—HBM之“设备材料”深度分析分析师:孙远峰 S0910522120001分析师:王海维 S09105230200052024年3月4日半导体行业深度报告领先大市-A(维持) 2请仔细阅读在正文之后的重要法律声明HBM技术迭代,3D混合键合助力设备材料ØHBM加速迭代,市场空间足:HBM突破“内存墙”,实现高带宽高容量,成为AI芯片最强辅助,我们认为HBM将持续迭代,I/O口数量以及单I/O口速率将逐渐提升,HBM3以及HBM3e逐渐成为AI服务器主流配置,且产品周期相对较长,单颗容量及配置颗数逐步增加,预计HBM4于2026年发布。2024年全球HBM市场有望超百亿美元,市场空间足,国产供应链加速配套。ØHBM3海力士率先引入MR-MUF,HBM4剑指混合键合:当前HBM采用“TSV+Bumping”+TCB键合方式堆叠(TSV一般由晶圆厂完成,封测厂可在堆叠环节进行配套),但随着堆叠层数的增加散热效率很差,TCB不再满足需求,海力士率先引入MR-MUF回归大规模回流焊工艺,芯片之间用液态环氧模塑料作为填充材料,导热率比TC-NCF中的非导电薄膜高很多,但海力士也预计HBM4会引入混合键合Hybrid Bonding方案,取消互连凸块。我们预判当前HBM主流依然是TCB压合,MR-MUF方案为过渡方案,未来混合键合是大趋势。液态塑封料LMC依然是晶圆级封装至关重要的半导体材料之一。Ø混合键合与TSV是3D封装的核心,HBM“连接”与“堆叠”带来设备材料端发展新机遇:混合键合分为晶圆对晶圆W2W和芯片对晶圆D2W,3D NAND使用W2W,典型案例为长鑫存储的Xstacking,CMOS层+存储层采用W2W混合键合方案,预计HBM未来亦会采用W2W方案,W2W与D2W方案相比一般应用于良率非常高的晶圆,避免损失。根据我们产业链研究,混合键合将充分带动永久键合设备与减薄+CMP需求,根据BESI官方数据,预计存储领域未来贡献混合键合设备明显增量,保守预计2026年需求量超过200台,减薄+CMP亦成为重要一环。当前HBM方案主要带动固晶机、临时键合与解键合、塑封装备以及TSV所需的PECVD、电镀、CMP等设备;材料端则是TSV电镀液、塑封料等。Ø相关标的:包括封测环节:通富微电(先进封装)、长电科技(先进封装)等;设备环节:拓荆科技(PECVD+ALD+键合设备)、华海清科(减薄+CMP)、华卓精科(拟上市,键合设备)、芯源微(临时键合与解键合)等;材料环节:华海诚科(环氧塑封料)、天承科技(RDL+TSV电镀添加剂)、艾森股份(先进封装电镀)等Ø风险提示:行业与市场波动风险,国际贸易摩擦风险,新技术、新工艺、新产品无法如期产业化风险,产能扩张进度不及预期风险,行业竞争加剧风险。 3请仔细阅读在正文之后的重要法律声明目录0102040305HBM—突破“内存墙”AI算力快速迭代,HBM为最强辅助HBM核心—“连接”与“堆叠”,3D混合键合成趋势HBM核心设备材料,替代进行时06相关标的风险提示 4请仔细阅读在正文之后的重要法律声明HBM—突破“内存墙”图:2018年~2025年 台积电先进工艺制程节点数据来源:TSMC、《AI and Memory Wall》(Amir Gholami等人)、《高带宽存储器的技术演进和测试挑战》(陈煜海等人)、华金证券研究所ØCPU与存储之间“内存墙”:随着摩尔定律的不断迭代,CPU运行速度快速提升,CPU主频高达5GHz,而DRAM内存性能取决于电容充放电速度以及DRAM与CPU之间的接口带宽,存储性能提升远慢于CPU,DRAM内存带宽成为制约计算机性能发展的重要瓶颈;ØDRAM:DDR4内存主频为2666~3200MHz,带宽为6.4GB/s,但是在AI应用中(高性能计算/数据中心),算力芯片的数据吞吐量峰值在TB/s级,主流的DRAM内存或显存带宽一般为几GB/s到几十GB/s量级,与算力芯片存在显著的差距,“内存墙”由此形成。以Transformer类模型为例,模型大小平均每两年翻410倍,AI硬件上的内存大小仅仅是以每年翻2倍的速率在增长;Ø内存墙问题不仅与内存容量大小有关,也包括内存的传输带宽;内存容量和传输的速度都大大落后于硬件的计算能力。图:AI与内存墙 5请仔细阅读在正文之后的重要法律声明HBM—突破“内存墙”数据来源:SK海力士,华金证券研究所近存(HBM/PiM)主存DRAMMR-DIMM:多级缓冲内存模组;2个DDR5 DIMM组合1)容量更大2)更慢3)价格低(单位比特)1)容量更小2)更快3)价格高(单位比特)异构内存图:异构内存结构 6请仔细阅读在正文之后的重要法律声明DRAM概念Ø典型的DRAM中,每个芯片有八个DQ引脚(数据传输路径,用作处理器和存储器之间通信的数据总线,必须具备读写功能,所以具备双向特性),即数据输入/输出引脚;Ø组成DIMM模块单元后(双列直插式存储模块,安装在PCB板上的存储模块,包含多个存储芯片,被用作PC或者服务器中的主存储单元),共有64个DQ引脚。随着数据处理速度等方面的要求不断提高,数据传输量也不断增加,传统DRAM DQ引脚的数量已无法保证数据快速通过;Ø传统DRAM需要大量空间与CPU/GPU等处理器通信,同时封装的形式看需要通过引线键合或PCB进行连接,DRAM不可能对海量数据进行并行处理。图:DRAM子系统结构图数据来源:chocoamond,thebeardsage,SK海力士,华金证券研究所图:DRAM子系统结构图内存控制器DIMM每个DIMM为1列,每列有4个DRAM芯片通道图:DDR3 打线封装 7请仔细阅读在正文之后的重要法律声明HBM概念数据来源:SK海力士,《高带宽存储器的技术演进和测试挑战》(陈煜海等人),JEDEC,华金证券研究所Ø随着2.5D/3D系统级封装(SiP)和硅通孔(TSV)技术日益成熟,为高带宽、大容量的存储器产品提供基础;Ø高带宽存储器HBM(Highband Memory)使用硅通孔TSV和微凸块技术垂直堆叠多个DRAM可以显著提升数据处理速度,性能提升的同时尺寸有所减少;Ø2013年开始,JEDEC制定了高带宽存储器系列标准(包括HBM,HBM2,HBM2E,HBM3),其中,HBM3相比2代标准有显著的提升,芯片单个引脚速率达到6.4Gbit/s,总带宽超过1TB/S。图:HBM堆叠结构TSV4层或8层DRAMPHY接口通过中间介质层与CPU/GPU/SoC直接高速相连,直接存取DA接口提供HBM中多层DRAM芯片的测试通道。图:TSV技术,3D堆叠核心 8请仔细阅读在正文之后的重要法律声明HBM技术特点—高速/高带宽数据来源: SK海力士、仁荷大学、华金证券研究所6.4281283074108193.2712.43.26.40123456780100200300400500600700800900DDR4GDDR5HBM1HBM2HBM2EHBM3最高带宽(GB/s)单引脚最大I/O速度(Gbit/s)图:HBM高速、高带宽性能指标ØHBM2E和HBM3的单引脚最大输入/输出(I/O)速度分别达3.2Gbit/s和6.4Gbit/s,低于GDDR5存储器的7Gbit/s,但HBM的堆栈方式可通过更多的I/O数量使总带宽远高于GDDR5;例如HBM2带宽可以达到307 GB/s;Ø海力士官网数据显示:HBM3E的数据处理速度,相当于可以在1s内下载230部全高清(FHD)级电影(每部5千兆字节,5GB),优化后可用于处理人工智能领域的海量数据。HBMHBM2HBM2/HBM2EHBM3HBM3 三星HBM3 gen2 美光HBM3E 海力士单引脚传输速率1Gbps2Gbps2.4Gbps6.4Gbps-9.2Gbps8.0Gbps容量--8,16GB24GB-24GB(8层)36GB(12层)24GB(12层)最大容量4GB8GB24GB64GB64GB64GB64GB最高带宽128GBps256GBps307GBps819.2GBps-1.2TB/s1.15TB/s封装形式cowoscowoscowos推出时间2013.122019.8 HBM2E2021.10 海力士2023.7 美光2023.4量产供应2022.623年下半年-图:HBM迭代对比分析图:海力士(左)/美光(右) HBM3E HBM总带宽显著提升,匹配算力 9请仔细阅读在正文之后的重要法律声明HBM结构特点—可扩展容量数据来源:《高带宽存储器的技术演进和测试挑战》(陈煜海等人) ,华金证券研究所4层DRAM芯片,每颗DRAM 容量2GB单I/O接口速率为1Gbit/s,带宽为128GB/s逻辑芯片每个DRAM芯片具有2个128bit通道,共有8个阵列(B0~B7)图:HBM1 堆叠DRAM 架构指标详情堆叠4层DRAM芯片+1层逻辑芯片每颗芯片通道数2总通道数8每个通道I/O引脚数128IO引脚/KGSD1024=128*8HBM扩展容量单层DRAM芯片容量可扩展堆叠更多DRAM,4层,8层,12层堆叠 10请仔细阅读在正文之后的重要法律声明HBM结构特点—可扩展容量数据来源:SK海力士、《高带宽存储器的技术演进和测试挑战》(陈煜海等人)、华金证券研究所图:HBM2 堆叠DRAM 架构图:HBM3 堆叠DRAM 架构Ø4层DRAM芯片,每层芯片4个通道Ø独立通道16个,每个通道2个伪通道,实际是支持32个通道Ø支持4层/8层/12层 TSV堆叠,并为未来扩展至16层TSV做好准备指标HBM2HBM2EHBM3通道数,I/O引脚数8CH*128 I/O(1024 I/O)8CH*128 I/O(1024 I/O)16CH*64 I/O(1024 I/O)带宽307GB/s(2.4Gbps/pin)512GB/s(4.0Gbps/pin)820GB/s(6.4Gbps/pin)推出时间2018年2020年2022年单引脚I/O速率(Gbit/s)2.43.2/3.66.4单片最大容量/Gbit161632堆叠层数2/4/8/122/4/8/124/8/12/16最大容量/GB242464 11请仔细阅读在正文之后的重要法律声明HBM技术特点—更低功耗数据来源:SK海力士、电子发烧友、《高带宽存储器的技术演进和测试挑战》(陈煜海等人) 、华金证券研究所10.630.550.3200.20.40.60.811.2DDR3*6DDR4*16GDDR5*32HBM2(1024)比率(Mw/Gbps/Pin)下降42%Ø采用微凸块和TSV技术,存储和算力芯片信号传输路径短,单引脚I/O速率较低,使HBM具备更好的内存功耗能效特性;Ø以DDR3存储器单引脚I/O带宽功耗为基准,HBM2的I/O功耗比明显低于DDR3/DDR4和GDDR5,相比于GDDR5存储器,HBM2的单引脚I/O带宽功耗比数值降低42%。图:HBM2与传统DDR存储器的单引脚I/O带宽功耗比对比•引脚数据速率提高•更宽的I/O总线•结构/操作数据层优化•功耗、散热解决方法1234速度密度功耗规格尺寸•核心die堆叠层数•核心die密度增加•核心工艺的细微化•结构体系图:影响HBM性能因素/HBM在速度与功耗方面取舍趋势(下图) 12请仔细阅读在正文之后的重要法律声明HBM性能迭代趋势46181997314342048050010001500200025002020年2022年2024年2026年2028年带宽(GB/s)数据来源:SK海力士,华金证券研究所HBM 2EHBM 3~HBM3EHBM 4&迭代图:HBM带宽升级(GB/s)HBM3渐成主流图:HBM颗粒密度(容量,GB)81616242405101520250102030405060