您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国金证券]:电子行业研究:AI应用带动推理算力需求,看好ASIC行业厂商发展 - 发现报告

电子行业研究:AI应用带动推理算力需求,看好ASIC行业厂商发展

电子设备2025-03-09樊志远国金证券
电子行业研究:AI应用带动推理算力需求,看好ASIC行业厂商发展

投资逻辑 我们认为AI推理降本有望带动AI应用的爆发,ASIC作为高性价比的算力方案,有望充分受益推理算力需求增长。从chatgpt3发布以来,大语言模型的推理的成本以指数级别下降,单美元可生成的token数量持续增长,据A16zInfrastructure测算,推理成本每年降低幅度约10倍。模型推理的算法升级落地,通过包括强化学习、MOE等方法提升模型推理能力。我们认为:模型的推理成本快速降低,有望带动应用的爆发,而应用爆发将带动更多的推理算力需求,同时推理算法的迭代也带动更多算力需求。ASIC相比GPU可针对业务场景做定制开发,我们认为大量的推理算力以及降本诉求将有效带动ASIC的需求增长。目前北美云厂商积极布局ASIC,已经实现规模化生产的ASIC包括谷歌的TPU、亚马逊的Trainium与Inferentia、微软的Maia以及Meta的MTIA,其中谷歌和亚马逊的产品在2025年已经开始实现较大规模出货。我们认为其他云厂商ASIC在成熟度逐渐提升后,未来也具备较大的增长空间。Openai等厂商也在积极布局ASIC。从数量来看,TPU是目前ASIC当中最为主要的产品之一。根据Digitimes测算,2023年TPU在ASIC的市占率约71,2024年全球ASIC出货达到345万颗,其中TPU占比提升至74。根据Omidia测算,2024年TPU的销售额在6090亿美元。亚马逊Trainium2已经推出,2024、2025年出货增长迅猛。根据Trendforce,AWS的出货成长力道强劲,24年年增率突破200。预计2025年AWS出货量将成长70以上,并更聚焦往Trainium芯片发展,投入AWS公有云基础设施及电商平台等AI应用。MetaASICMTIA已经推出第二代,目前主要用于模型推理,Meta预计26年将有用于训练的ASIC推出。除了北美四大CSP以外,我们预计未来领先的模型厂商如openai等也将开发ASIC。根据《经济日报》,openai预计将采用台积电3nm以及A16制程生产ASIC,预计openai的ASIC将在26年年底进入量产。 我们看好ASIC设计服务公司、以太网白盒交换机厂商与以太网交换芯片厂商、AEC厂商、PCB厂商。1)ASIC设计服务公司:目前除美系厂商外,台系厂商也已拿到北美云厂商ASIC项目,并有望在未来扩大份额。我们认为,ASIC在推理算力占比提升的大背景下,需求增长的趋势明确,但需要关注行业竞争格局的变化,需要密切关注每个芯片项目的获得者。建议关注导入北美云厂商的ASIC设计服务公司。在美国制裁加剧情况下,我们认为国内云厂商ASIC项目有望采用国内设计服务企业,国内相关企业有望受益。2)以太网白盒交换机厂商与以太网交换芯片厂商:由于ASIC采用以太网组网,我们认为ASIC的放量有望带动以太网在AI组网的渗透率提升以及需求。白盒以太网交换机方案趋势明确,主要厂商Arista在10G及以上的数据中心交换机市场的出货量以及营收市占率都已经超过思科。未来来看,我们认为云厂商采用自研系统采购白牌交换机的比例有望逐渐扩大。建议关注:Arista以及白牌交换机厂商。以太网交换芯片是以太网交换机的核心部件,建议关注商用以太网交换芯片厂商。3)AEC厂商:以太网白盒交换机厂商与以太网交换芯片厂商,我们认为Credo具有一定先发优势,看好Credo,建议关注其他在AEC布局的厂商。4)PCB厂商:我们认为ASIC兴起将带动产业链显著升级,AI对算力PCB提出更高需求,同时数据量增长带动基础设施升级。另外ASIC芯片采用多die形式,显著提升对载板的需求。建议关注在高速通信领域具备较强高多层板与HDI板的厂商,以及具备封装基板能力的厂商。 投资建议 目前北美CSP已经积极布局ASIC,另外模型厂商如Openai也在积极布局ASIC。ASIC有望迎来高速增长。我们看好ASIC设计服务公司、以太网白盒交换机厂商与以太网交换芯片厂商、AEC厂商、PCB厂商。 风险提示 AI进展不及预期;行业竞争加剧;下游需求不及预期。 内容目录 一、AI应用有望带动推理算力需求,云厂商持续加码ASIC4 11推理降本趋势明显,ASIC方案性价比凸显4 12谷歌、亚马逊加码ASIC,其他CSP有望跟进5 二、看好ASIC设计服务公司、以太网、AEC、PCB相关厂商7 21ASIC设计服务公司业绩进入放量期,关注ASIC项目designwins变化7 22ASIC采用以太网组网,以太网交换芯片、白盒交换机厂商有望受益10 23ASIC带动AEC需求加速,云厂商开始导入ASIC13 24PCB:ASIC的单位PCB耗用量更高,多die合封带来封装基板市场需求扩容15 三、投资建议18 四、风险提示18 图表目录 图表1:大模型推理成本按照指数下降,每年降低幅度约10倍4 图表2:Deepseek依靠推理端算法优化可以实现较好智能程度(单位:)5 图表3:ASIC相比GPU牺牲灵活性,但提高效率5 图表4:v6e在算力上有明显提升6 图表5:24年全球ASIC出货345万颗,谷歌市占率746 图表6:亚马逊Trainium2包括Trainium2与Trainium2Ultra两个版本6 图表7:Meta、微软已经分别推出ASICMTIA、Maia7 图表8:定制ASIC业务的技术关键在于关键IP与先进封装技术7 图表9:博通25年将实现三家ASIC客户产品量产8 图表10:博通AI收入占半导体收入比例快速提升8 图表11:Marvell已经获得三家客户的ASIC项目8 图表12:Marvell预计28年定制化芯片TAM达到429亿美元(单位:十亿美元)8 图表13:世芯营收高速增长,24年同比7059 图表14:世芯7nm及更先进制程项目收入占比超909 图表15:联发科在Computex2024上展示的ASIC设计方案9 图表16:创意电子24年实现营收25044亿新台币,同比4610 图表17:北美CSP引入多家ASIC供应商10 图表18:白盒交换机解耦上层应用与底层硬件11 图表19:开放与解耦是数据中心网络发展方向11 图表20:Arista数据中心交换机按营收市占率超过思科11 图表21:Arista数据中心交换机按端口数市占率超过思科11 图表22:Arista数据中心高速以太网(100G200G400G)端口数出货量已超思科两倍(单位:百万)12 图表23:交换机主要芯片为交换芯片12 图表24:交换机当中芯片成本占比达3212 图表25:DAC直径、所占空间更大,排线困难13 图表26:AEC直径、所占空间更小13 图表27:AEC在短距离高速率传输优势较DAC和光通信方案明显13 图表28:AOC、DAC、AEC28年市场有望达28亿美元,AEC增速最快14 图表29:Credo客户拓展顺利,FY25Q2三家头部企业成为Credo营收占比超10客户14 图表30:主要厂商AEC产品进展14 图表31:20232028年全球PCB细分领域复合增速预测15 图表32:20232028年全球PCB细分领域复合增速预测16 图表33:亚马逊Trainium2服务器示意图16 图表34:谷歌自研AIASIC芯片TPU16 图表35:亚马逊自研AIASIC芯片Trainium217 图表36:全球封装市场收入(十亿美元)17 图表37:全球封装晶圆产能耗用(千片)17 图表38:全球先进封装市场按工艺分布(十亿美元)17 图表39:20242029年全球先进封装各工艺复合增速17 图表40:载板在FCBGA封装制造成本中占据50的比例18 一、AI应用有望带动推理算力需求,云厂商持续加码ASIC 11推理降本趋势明显,ASIC方案性价比凸显 从chatgpt3发布以来,大语言模型的推理的成本以指数级别下降,单美元可以生成的token数量持续增长。同时模型的能力也持续增加。相较于最早的chatgpt3,目前的主流模型都可以通过更低的推理成本达到更高的智能水平。在2021年1月,GPT3是唯一可 以达到MMLU42分的大语言模型,当时百万token的成本在60美元,截至2024年11月,由togetherai提供的Llama32B可以同样达到MMLU42分的水平,但百万token的成本以及降低到006美元。而可以达到MMLU83分的大语言模型中,Llama3170B截至2024年11月百万token的成本已经小于1美元。根据A16zInfrastructure测算,推理成本每年降低幅度约10倍。 图表1:大模型推理成本按照指数下降,每年降低幅度约10倍 来源:A16zInfrastructure,国金证券研究所 另外我们注意到,目前模型的能力提升,除了模型的预训练以外,推理的算法升级也不断落地,通过包括强化学习、MOE等方法提升模型推理能力。我们认为:模型的推理成本快速降低,有望带动应用的爆发,而应用爆发将带动更多的推理算力需求,同时推理算法的迭代也带动更多算力需求。我们认为大量的推理算力以及降本诉求将有效带动ASIC的需求增长。 图表2:Deepseek依靠推理端算法优化可以实现较好智能程度(单位:) DeepSeekV3OpenAIo1miniDeepSeekR132BOpenAIo11217DeepSeekR1 SWEbenchVerified(完成率) MMLU(准确率) MATH500(准确率) GPQADiamond(准确率) Codeforces(百分位) AIME2024(准确率) 020406080100120 来源:《DeepSeekR1IncentivizingReasoningCapabilityinLLMsviaReinforcementLearning》,国金证券研究所 ASIC相比GPU,主要优势在于性价比。ASIC采用定制化设计,可以针对云厂商的业务,以及模型做定制开发,将其中常用的算子直接固化到硬件当中,可以大幅提升运算效率,同时降低功耗。另外GPU主流厂商如英伟达产品具有较高毛利率,采用ASIC在单价上也有望降低。 图表3:ASIC相比GPU牺牲灵活性,但提高效率 ASIC GPU 效率 较高 中等 灵活性 低 高 初始成本 高 可变 来源:Bitdeer网站,国金证券研究所 12谷歌、亚马逊加码ASIC,其他CSP有望跟进 目前北美云厂商积极布局ASIC,已经实现规模化生产的ASIC包括谷歌的TPU、亚马逊的Trainium与Inferentia、微软的Maia以及Meta的MTIA,其中谷歌和亚马逊的产品在2025年已经开始实现较大规模出货。我们认为其他云厂商ASIC在成熟度逐渐提升后,未来也具备较大的增长空间。另外Openai等厂商也在积极布局ASIC,未来有望进入量产。 谷歌TPU在24年已经推出第六代产品当中用于推理的v6e产品,与TPUv5e相比,TrilliumTPU每一芯片峰值计算效能提升了47倍,为相当惊人的表现。TPUV6e将HBM的容量与带宽提升1倍,芯片间互连网络带宽也提高了一倍。此外,v6e还配备了第三代SparseCore,这是处理超大嵌体的专用加速器,常用于处理进阶排名与推荐工作负载。V6e可以更快速地训练下一代基础模型,并以较短的延迟时间与较低成本提供模型服务。与TPUv5e相比,TPUV6E的能源效率高出67。 从数量来看,TPU是目前ASIC当中最为主要的产品之一。根据Digitimes测算,2023年TPU在ASIC的市占率约71,2024年全球ASIC出货达到345万颗,其中TPU占比提升至74。根据Omidia测算,2024年TPU的销售额在6090亿美元。 图表4:v6e在算力上有明显提升图表5:24年全球ASIC出货345万颗,谷歌市占率74 v4 v5e v5p v6e 谷歌其他 pod芯片数 4096 256 8960 256 fp16算力(Tflops) 27