您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [国盛证券]:AI驱动HBM放量,前驱体龙头迎崭新机遇 - 发现报告

AI驱动HBM放量,前驱体龙头迎崭新机遇

2023-05-04 郑震湘,杨义韬,王席鑫 国盛证券 九八野马
报告封面

受AI服务器拉动,HBM进入高景气。AI训练、推理所需计算量呈指数级增长,2012年至今计算量已扩大30万倍。处理AI大模型的海量数据需要宽广的传输“高速公路”即带宽来吞吐数据。HBM(高带宽存储器)带宽相比DRAM大幅提升。SK海力士的HBM3产品带宽高达819GB/s。 同时,得益于TSV技术,HBM的芯片面积较GDDR大幅节省。因而是最适用于AI训练、推理的存储芯片。经我们测算,受AI服务器增长拉动,HBM需求有望在2027年增长至超过6000万片。 雅克为SK海力士前驱体核心供应商,有望受益HBM行业机遇。前驱体是用于半导体薄膜沉积CVD、ALD工艺的材料,下游以存储芯片为主。前驱体主要应用于先进制程芯片,随制程发展历史需求维持较快增速。目前主要用于AI服务器的HBM3由8个或12个DRAM裸片堆叠制成,这意味着其前驱体用量将实现大幅增长。并且,HBM使用前驱体的单位价值量也呈倍数级增长。在AI驱动HBM高增的背景下,前驱体有望迎来崭新发展机遇。目前全球仅SK海力士、三星、美光三家厂商具备HBM生产能力。其中,SK海力士最早于2014年推出HBM,相比对手显著先发优势显著。2023年4月,海力士宣布发布12片堆叠的HBM3产品。根据CINNO,SK海力士在全球高附加值HBM市场占70%-80%份额,雅克科技为SK海力士前驱体材料全球范围内的核心供应商,有望核心受益。 海外供给遇不可抗力,LNG板材高景气持续。LNG运输船危险系数高、制造难度大,被称为“沉睡的氢弹”,因而其核心材料复合板材制造、认证壁垒高。目前全球仅包括雅克科技、韩国Dongsung、韩国Hankuk在内的极少数厂商具备LNG复合板材供应能力。2022年,全球船东订购了184艘LNG运输船,同比2021年全年总数呈翻倍增长。其中,由于我国沪东造船厂、江南造船厂已于近年突破大型LNG运输船制造能力,2022年共承接59艘船订单,占全球总订单32%。雅克为国内唯一经法国GTT认证的LNG板材厂商,订单持续超预期。2023年4月21日,公司LNG板材主要对手韩国Hankuk遭遇不可抗力,有望使公司订单进一步增长。 盈利预测与估值建议:我们预计公司2023-2025年营业收入分别为63.01/89.53/100.44亿元,归母净利润分别为8.53/13.14/16.02亿元,对应PE分别为35.7/23.2/19.0倍。公司是电子材料平台型厂商。未来将围绕一系列先进制程材料进行延伸。同时,AI服务器驱动HBM放量,公司前驱体业务有望迎来崭新增长机遇,维持“买入”评级。 风险提示:物流超预期受阻,下游需求低于预期,竞争格局恶化,测算存在误差。 财务指标 财务报表和主要财务比率 资产负债表(百万元) 现金流量表(百万元) 1.雅克科技:具备全球竞争力的电子材料平台型厂商 1.1.雅克科技是具备全球竞争力的电子材料厂商 公司是具备优质客户资源的电子材料平台型厂商,前驱体业务具有全球领先的竞争力。 近年来,公司通过一系列并购陆续进军了半导体材料硅微粉、电子特气、前驱体以及TFT光刻胶、彩色光刻胶,证明了自身全球化外延能力,对标默克路径持续以平台型逻辑成长。公司半导体材料前驱体业务具备全球竞争力,海外客户包括SK海力士、美光、三星、铠侠和英特尔等,国内客户包括中芯国际、合肥长鑫、长江存储等,海内外客户资源优质,为中长期业绩放量打下了坚实的客户资源基础。 图表1:公司发展历程 1.2.对标默克,电材龙头持续平台型扩张 2017年以来业绩持续高增长。2022年,公司实现营业收入42.59亿元,同比增长12.61%; 实现归母净利润5.24亿元,同比大幅增长56.61%。自2017年开始进军电子材料业务以来,公司实现了高速成长。2017年至2022年,公司营业收入、归母净利润分别实现复合增速30.3%、71.8%。2023Q1,公司实现营业收入10.71亿元,同比增长10.98%; 实现归母净利润1.73亿元,同比增长16.39%。 图表2:公司营业总收入 图表3:公司归母净利润 半导体化学材料(前驱体)是盈利能力最强的业务。随着磷系阻燃剂业务增长放缓,公司2014至2016年收入增长乏力。2016年,公司开始进军电子材料业务,收入结构开始迅速发生变化。2022年,电子材料相关业务已占公司收入达75.8%,占公司利润达82.0%,并在2018年以来贡献了公司主要的业绩成长。在公司电子材料业务中,前驱体和电子特气是已披露毛利率板块中,盈利能力最强的业务板块,2022年分别实现毛利率50.26%、36.87%;成长性方面,前驱体是公司增长最快的业务,受核心客户SK海力士订单增长拉动,前驱体业务2017年以来实现43.0%的复合增速,营收由2018年的2.74亿元增长至2022年11.43亿元。 图表4:公司各板块历史营业收入(亿元) 图表5:公司各板块历史毛利率 盈利能力随业务结构的变化而抬升,趋势持续。公司2021/2022/2023Q1分别实现毛利率25.8%/31.2%/32.5%。受益于良好的费用控制能力,公司销售费用率2019年开始明显下降,公司2021/2022/2023Q1分别实现净利率9.0%/12.8%/16.3%。后续受益于前驱体、高性能硅微粉等业务的强势增长,预计盈利能力将持续抬升。 图表6:公司历史毛利率、净利率 图表7:公司历史费用率 2.AI驱动HBM放量,前驱体龙头迎崭新机遇 2.1. AI对计算量需求呈指数级增长 AI模型需要处理的计算量呈指数级增长,对GPU的数据吞吐能力提出更高要求。AI模型的计算量与参数量和需要处理的数据量有关,现行模型的参数量增长极快,2019年2月发布的gpt-2参数量仅15亿,2020年5月发布的gpt-3参数量高达1750亿。根据OpenAI报告,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,更大的计算量意味着需要显卡提供更强的数据吞吐能力。 图表8:用于训练不同人工智能系统的计算量呈指数级增长(截至2023年3月15日) 处理AI大模型的海量数据需要宽广的传输“高速公路”来吞吐数据,也即GPU的带宽需要得到拓展,对高带宽存储芯片(HBM)的需求激增。图形处理器GPU是专于并行处理数据的处理器,为GPU核配置的存储芯片起到创建并行处理通道的作用,存储芯片的带宽决定了多核架构GPU的性能,用GPU持续对输入输出的数据进行处理时的单次数据吞吐量来衡量。单枚GPU的带宽与显存位宽、显存数据频率成正比,而显存频率虽高,但其面临着提升上限的问题,拓展显存位宽是满足GPU高带宽要求的更佳路径。显存的位宽又由显存类型直接决定,HBM(高带宽存储器)的位宽是GDDR5的32倍之高,即使数据频率相对略小,但总带宽显著高于GDDR,更适合与GPU合封用于AI大模型的训练和推理。 图表9:CPU/GPU进行64位浮点计算所需的带宽持续提升 图表10:GPU带宽的计算方法 HBM能提供高带宽,需求有望随AI服务器增长。深度学习训练要求GPU之间、CPU与GPU、内存与存储之间的通信采用更高效率数据传输方式。在AI大模型涌现提高对HBM需求之前,AI服务器多采用图形双倍数据速率存储器GDDR来满足GPU带宽要求。HBM虽有灵活性欠佳、访问延迟高的不足之处,但其优异的带宽表现使得其尤其适配于GPU计算这种延迟性要求低、带宽要求高的并发工作。相对于GDDR6,HBM2E的芯片密度达到其7倍,芯片面积节省87.5%,而海力士新推出的HBM3产品带宽在上一代HBM2E产品的基础上又翻一倍,无疑是AI服务器的更佳选择。 图表11:HBM由多个DRAM堆叠制成 图表12:HBM占用面积较GDDR大幅节省 自2014年初代HBM1首次问世以来,HBM产品已经历三次迭代,以SK海力士为首的海外头部存储企业是引领HBM产品迭代的主力军。 HBM1:首次使用TSV技术,由SK海力士联合AMD于2014年最早推出: 2014年,SK海力士与AMD联合开发了全球首款硅通孔HBM产品。HBM1的工作频率约为1600Mbps,漏极电源电压为1.2V,芯片密度为2GB(4-hi)。HBM1不仅带宽显著高于同时期的DDR4和GDDR5产品,还具备外形尺寸小、消耗功率低的多重优势,更能满足图形处理单元GPU等带宽需求较高的处理器。凭借HBM初代产品,海力士在高带宽存储市场上夺得先机。 HBM2:改进热控制模式及通道模式,三星、SK海力士比肩骈行各有精进: 三星:2016年1月、2017年7月,三星分别宣布将批量生产4GB、8GB HBM2。 2018年1月,三星宣布开始量产第二代8GB HBM2“Aquabolt”,在该产品中三星使用了TSV设计和热控制的最新技术,在8个8Gb HBM2芯片上各有5000多个硅穿孔以完成垂直互连,通过将并行时钟偏移降至最低,三星大幅提升了HBM2的产品性能。此外,三星还增加了HBM2芯片之间的热凸点数量,每个HBM2底部另有附加保护层,改善了芯片的热控制能力和物理强度。 海力士:2017年 H2 ,被三星后来者居上的SK海力士同样开始量产HBM2,并于2018年发布产品。海力士这款产品采用将一个通道分为两个单独的64位(bit) I/O子通道的伪通道模式,从而起到了优化内存访问、降低延迟,进而提高有效带宽的作用。海力士采取的硬修复和软修复的通道重新映射模式以及防过热保护等措施同样起到了提升有效带宽的效果。 HBM2E:SK海力士率先将堆叠芯片数目翻倍,成为同期最快的存储器解决方案:SK海力士最早于2020年抢先发布HBM2E产品,通过对8枚DRAM芯片的堆叠,HBM2E的容量拓展至16Gb,是HBM2的两倍。HBM2E的数据处理速度达3.6Gbps,每秒可处理460GB的数据,是当时业界最快的存储器解决方案,散热性能也提高了36%。 HBM3:增加ECC校验功能提高可靠性,是目前高性能AI训练用GPU的标配:SK海力士在2021年10月开发出全球首款HBM3,并于2022年正式向市场发布,HBM3产品最高可堆叠芯片数目增至12枚,HBM3采用16通道架构,运行速度再次翻倍达6.4Gbps,尤其适用于AI、HPC等容量密集型应用。HBM3中新增了ECC校验(On Die-Error Correcting Code)功能,可使用预分配的奇偶校验位来检测和纠正接收数据中的错误。凭借该功能,DRAM可完成数据自我纠错,从而提高设备的可靠性。2023年4月,海力士宣布发布最新款12片堆叠的HBM3产品,容量拓展至24GB,性能再次提升。 图表13:DDR与HBM性能对比 得益于TSV技术,信号传输路径更短、物理接口更少的HBM在提升带宽的同时具备更低的功耗、更小的封装面积。HBM通过硅通孔(TSV)技术将数个DRAM裸片垂直堆叠在芯片Z轴进行电气连接和物理延伸,相比于传统的倒装焊和引线键合,TSV无需布线、多层堆叠。一方面,在晶圆上直接打孔的方式通过去耦I/O负载提升了引脚速率,并通过消除堆叠芯片上不必要的重复电路组件实现了数据吞吐量的增加,显著提升带宽。另一方面,TSV同时缩短了电传导通路,减少信号延迟、互联密度更高。TSV技术核心在于通孔制作,在芯片上打下数千个孔道,需要依次完成硬掩膜图形化后深硅刻蚀孔内清洗、PEALD沉积、电镀、退火等多个步骤,孔的成型、填孔电镀、减薄和键合都是TSV的难点所在,因而目前能够掌握TSV技术并将其应用于HBM领域的企业并不多见。 图表14:采用TSV技术垂直堆栈使得HBM内空间被充分利用,突破单一封装内带宽限制 图表15:传统封装布线多,影响数据传输速率 英伟达、AMD多款产品率先使用HBM显存,NVIDIAH系列作为最早搭配有HBM3的GPU产品能大幅提升AI大模型的训练速度。HBM的早期产品HBM1、HBM2、HBM2E在英伟达A系列、AMDRadeon