您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国投证券]:新材料系列报告(二):AI应用浪潮下,芯片电感需求有望增加 - 发现报告

新材料系列报告(二):AI应用浪潮下,芯片电感需求有望增加

有色金属2024-02-29覃晶晶、周古玥国投证券文***
AI智能总结
查看更多
新材料系列报告(二):AI应用浪潮下,芯片电感需求有望增加

2024年02月29日有色金属 证券研究报告 新材料系列报告(二):AI应用浪潮下,芯片电感需求有望增加 投资评级领先大市-A维持评级 AI应用浪潮下,高性能芯片市场需求大增 首选股票目标价(元)评级 芯片是AI算力的主要载体,AI产业应用浪潮带动高性能芯片的需求增长。生成式AI浪潮下,英伟达数据中心业务迎来加速增长。在AI大模型训练和推理助推算力需求、AIPC生态建立增加PC终端硬件需求、物联网和5G技术下算力需求存在下沉趋势的情况下,高性能芯片需求上升。 国内外AI芯片产品升级迭代,芯片市场成长空间可观。据中国信通院测算,预计未来五年全球算力规模的增速将在50%以上。AMD预计2027年的全球AI芯片(用于数据中心)市场规模4000亿美元。 电子产品小型化趋势下,芯片电感要求提升 芯片电感是芯片供电模块的关键组成部分。随着AI产业的快速发展,数据中心、AI芯片、服务器等算力基础设施,对于芯片电感等电子元件要求提升。芯片电感起到为GPU、CPU、ASIC、FPGA等芯片前端供电的作用。电子产品向高效率、高功率密度和小型化方向发展,芯片制程趋于微型化,电源模块趋于小型化、低电压、大电流,对芯片电感产品提出更高要求。 覃晶晶分析师SAC执业证书编号:S1450522080001qinjj1@essence.com.cn 芯片电感材料由铁氧体向金属软磁材料转型,金属软磁材料制成的芯片电感具备低电压、耐大电流、小体积的优点。作为一种重要的金属软磁材料,金属磁粉芯具备高饱和磁感应强度,大电流下不易产生饱和,工作稳定性强。另外,制备磁粉芯的核心材料,合金软磁粉,其性能受到原料粉末成分、制造工艺影响较大。以羰基铁粉、超细雾化合金粉为基础原料的软磁粉体材料,制成的一体成型电感有着小型化、轻量化、低功耗等优势。 周古玥联系人SAC执业证书编号:S1450123050031zhougy@essence.com.cn 相关报告 新材料系列报告(一):固态电池潜力获验证,关注动力电池金属新需求2024-01-12 芯片电感需求增长空间可观。据我们测算,2026年全球AI服务器芯片电感市场规模将达到近11亿,2022-2026 CAGR25%。2026年全球AI PC芯片电感市场规模预计约8亿,2023-2026 CAGR 79%。2026年全球AI服务器、AIPC用芯片电感软磁粉用量需求7853吨,2023-2026 CAGR56%。 芯片电感产业链关注标的 芯片电感产业链重点关注在软磁材料环节、软磁粉芯环节、芯片电感产品环节有相关业务布局的标的,建议关注:铂科新材、悦安新材、东睦股份、屹通新材和龙磁科技。 风险提示:宏观经济表现不及预期,金属价格大幅波动,需求不及预期 内容目录 1. AI应用浪潮下,高性能芯片市场需求大增......................................31.1. AI应用加速发展,英伟达数据中心业务大幅增长...........................31.2. AI大模型浪潮+算力下沉趋势下,高性能芯片需求提升......................41.3.国内外AI芯片产品升级迭代,芯片市场成长空间可观......................42.电子产品小型化趋势下,芯片电感要求提升.....................................52.1.芯片和电源模块小型化趋势下,芯片电感要求提升.........................52.2.适配低电压大电流,电感材料向金属软磁材料转型.........................62.3.芯片电感需求增长空间可观.............................................73.芯片电感产业链关注标的.....................................................83.1.铂科新材:软磁材料持续迭代,芯片电感产品获国际芯片厂商验证认可........93.2.悦安新材:一体式电感上游粉体材料,适用AI芯片等高频场景...............93.3.东睦股份:粉末冶金龙头,芯片电感产品已在产..........................103.4.龙磁科技:软磁产业链全面推进,一体成型电感小批出货...................103.5.屹通新材:铁硅铬粉适用于制作贴片电感................................104.风险提示..................................................................11 图表目录 图1.AI算力产业链............................................................3图2.英伟达收入结构(单位:亿美元)..........................................4图3.英伟达数据中心营收加速增长..............................................4图4.芯片电感被用于CPU、GPU等芯片的前端供电.................................5图5.芯片供电模块主要元器件..................................................6图6.台积电技术路线图........................................................6图7.芯片电感产业链图示......................................................8 表1:国内外部分重要AI芯片及公司汇总........................................5表2:铁氧体和金属磁粉芯特性对比.............................................7表3:全球AI服务器芯片电感市场规模测算......................................7表4:全球AI PC芯片电感市场规模测算.........................................7表5:全球AI服务器和PC市场,芯片电感软磁材料用量测算.......................8表6:已有芯片电感产业链产品布局的公司产品...................................8表7:具备芯片电感产业链产品布局潜力的公司产品...............................9 1.AI应用浪潮下,高性能芯片市场需求大增 1.1.AI应用加速发展,英伟达数据中心业务大幅增长 芯片是AI算力的主要载体,AI产业浪潮增加了对算力的需求,直接带动对高性能芯片的需求。芯片是AI产业发展的核心硬件,是AI算力的主要载体。据摩尔定律,每18-24个月集成电路上的晶体管集成度增加一倍,即芯片性能大约每18-24个月增加一倍。AI大模型训练和推理增加了对算力的需求。据OpenAI测算,2012年以来,AI训练所使用的算力每3-4个月增长一倍。AI大模型计算带来的算力需求增长已超过摩尔定律,这使得高性能芯片需求大幅增加。 资料来源:CSDN,国投证券研究中心 英伟达在数据中心GPU市场中,市占率达92%。英伟达早期专注于图形芯片(GPU)设计业务,随着公司技术与业务发展,已成长为一家提供全栈计算的人工智能公司。GPU最初被设计用于渲染图形,2006年英伟达推出CUDA计算架构,使GPU的平行运算功能拓展至科学研究领域。GPU逐步在数据中心中被发展成为更为通用的并行处理器,对生成式AI所需要的深度学习计算至关重要。英伟达也因而在GPU计算领域长期占据领先地位。据IOTAnalytics,2023年,在数据中心GPU市场中,英伟达占据92%的市场份额。 生成式AI浪潮下,英伟达数据中心业务迎来加速增长。Q4FY24公司总营收221.0亿美元,同比+265%;其中数据中心业务贡献184.0亿美元,同比+409%。英伟达GPU是生成式AI计算基础设施的重要构成部分,随着全球各地的公司从通用计算向加速计算和生成式AI转型,GoogleCloud、AmazonWeb Services等大批云服务提供商,Amdocs、Dropbox等领先的人工智能公司与英伟达开展业务合作。 英伟达新产品推出升级迭代,性能进一步飞跃。2022年3月,英伟达推出首款基于Hopper的GPU NVIDIA H100,具有革命性的Transformer引擎和高度可扩展的NVIDIA NVLink互连等突破性功能,于2022年三季度开始供货。NVIDIA的第四代DGX系统DGX H100配备8个H100 GPU,能够以新的FP8精度提供32 petaflops的AI性能,提供满足大型语言模型、推荐系统、医疗保健研究和气候科学的大规模计算需求的规模。据海外研究机构Omdia预测,预计Q2FY24公司H100 GPU出货量约30万个,每年潜在出货量120万个。2023年11月,英伟达推出配备全新NVIDIA H200 Tensor Core GPU的NVIDIA HGX™H200,为首款配备HBM3e内存的GPU,可处理生成AI和高性能计算工作负载的海量数据。NVIDIA H200性能进一步飞跃,以每秒4.8TB的速度提供141GB内存,与前身NVIDIA A100相比,容量几乎翻倍,带宽增加2.4倍,预计将于2024年二季度开始供货。下一代旗舰产品B100预计将在2024年发布。 资料来源:Wind,国投证券研究中心 资料来源:Wind,国投证券研究中心 1.2.AI大模型浪潮+算力下沉趋势下,高性能芯片需求提升 AI大模型浪潮下,智能算力需求迎快速增长,带动芯片需求提升。国内外科技巨头、互联网大厂纷纷布局AI大模型,同时积极探索其商业化落地应用。大模型参数规模与计算需求迎来快速增长。以OpenAI的GPT3模型为例,据Open AI论文《Language Models are Few-ShotLearners》,该模型的参数量为1750亿,Token数为3000亿。据我们测算,模型训练的算力需求一般是参数量*Token数的6倍,则GPT3大模型训练算力需求为315ZFLOPS。若模型的训练需要在1个月内完成,那么如果全部采用H100 SXM来训练,假设模型利用率为46%,若以FP32的67TFLOPS运算速度计算,将需要3943块芯片同时运行。据中国信通院,GPT-4的训练算力需求上升到GPT-3的68倍。大模型训练及推理的算力要求大幅增加了对于芯片的需求。 此外,PC和芯片厂商推出相关产品,推动AIPC生态的建立,将增加PC终端对高性能芯片的需求。2023年10月,高通发布骁龙X Elite,具备生成式AI能力,能够在设备上完全运行高达130亿个参数的人工智能模型。2023年12月,英特尔推出Meteor Lake,首次将人工智能加速引擎(NPU)集成到PC处理器,能更好地支持生成式AI、计算机视觉等内容。2023年10月,联想发布首款AI PC,能够创建个性化的本地知识库,通过模型压缩技术运行个人大模型,实现AI自然交互。随着AIPC从芯片到产品的逐步落地和发展,将增加PC终端对高性能芯片的需求。 另外,随着物联网和5G技术的发展,算力需求存在下沉到边缘和终端的趋势,也增加了对高性能芯片的需求。智慧城市、自动驾驶、工业互联网等应用的落地,带来了大量终端设备数据,集中式云计算在带宽负载、成本等方面存在一定的劣势,边缘端云边端协同方案价值凸显。如在汽车领域,蔚来的智能驾