您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[东吴证券]:电子行业点评报告:阿里Q3验证AI需求高景气,DeepSeek与谷歌TPU引领软硬件进阶 - 发现报告

电子行业点评报告:阿里Q3验证AI需求高景气,DeepSeek与谷歌TPU引领软硬件进阶

电子设备2025-11-30陈海进、解承堯东吴证券阿***
AI智能总结
查看更多
电子行业点评报告:阿里Q3验证AI需求高景气,DeepSeek与谷歌TPU引领软硬件进阶

阿里Q3验证AI需求高景气,DeepSeek与谷歌TPU引领软硬件进阶 2025年11月30日 证券分析师陈海进执业证书:S0600525020001chenhj@dwzq.com.cn 研究助理解承堯执业证书:S0600125020001xiechy@dwzq.com.cn 增持(维持) ◼本周AI产业链股价普遍反弹,在经历“AI泡沫论”等利空因素回调后,阿里三季度财报表现强劲再次验证AI需求仍将持续。本周股价涨跌幅情况来看,数通PCB/CCL:生益电子+14.16%,胜宏科技+12.93%,生益科技+8.6%;铜连接:博创科技+20.84%,兆龙互连+7.23%;光芯片/光器件:长光华芯+59.33%,太辰光+22.3%;液冷:思泉新材+12.72%,申菱环境+5.92%;服务器代工:华勤技术+3.49%。 ◼国产算力呈现出“商业兑现加速”与“技术范式突破”共振的强劲势头。一方面,基础设施端迎来需求井喷,阿里巴巴Q3财报中阿里云收入同比高增34%,充分验证了国内AI算力需求的爆发性与持续性,且公司表示服务器交付速度滞后于订单增长的现状,预示着国内云厂商资本开支有望进入新一轮加速期,进一步夯实国产算力底座。另一方面,算法端实现了从“结果拟合”向“逻辑自洽”的关键跃迁,DeepSeekMath-V2通过引入基于形式化证明的自我验证机制,将大模型竞赛从单一的参数规模堆砌引向了“过程监督”的高阶维度,成功验证了推理端算力(Test-Time Compute)带来的巨大边际收益。在这一背景下,我们坚定看好国产算力产业链,认为其已跨越概念导入期,正式进入由技术迭代与产能扩张双轮驱动的业绩兑现黄金周期,具备核心交付能力的算力底座厂商将持续受益于这场从底层架构到顶层应用的全面繁荣。 相关研究 《三季度AI业绩持续兑现,Mid-Training开启结构化智能新阶段-算力周报》2025-10-26 ◼谷歌硬件生态正迎来“技术闭环”向“商业外溢”的关键转折点,重塑AI算力供应链格局。技术层面,新一代Ironwood TPU凭借“9216芯片+1.77PB内存”的超大规模集群架构,配合自研MEMS OCS光交换技术,彻底打破了传统电交换在能耗与延迟上的物理瓶颈,以极低的网络成本(占比<5%)实现了万卡级集群的高效互连。这一基于“光电协同”的TCO壁垒已转化为强大的商业虹吸效应,接连斩获Anthropic百万级算力订单及Meta潜在部署意向,有力证明了TPU已具备比肩英伟达的竞争力。我们认为,随着谷歌TPU从自用走向外售,“谷歌链”有望成为独立于英伟达之外的第二增长极,建议重点关注深度受益于OCS架构的MEMS光器件、光模块、ASIC设计服务及液冷散热等核心供应链环节的弹性机会。 《国产算力认知强化!Tokens消耗——AI需求侧核心逻辑正式向多模态大模型延展》2025-10-08 ◼产业链相关公司: PCB/CCL:胜宏科技、沪电股份、深南电路、景旺电子、方正科技、生益科技、南亚新材、生益电子、东山精密、威尔高等; 铜缆/铜连接:沃尔核材、兆龙互连、华丰科技、立讯精密、鸿腾精密等; 光芯片/光器件:长芯博创、源杰科技、仕佳光子、太辰光、长光华芯等液冷:英维克、思泉新材、申菱环境、高澜股份等。服务器代工:工业富联、华勤技术。 ◼风险提示:供应链波动风险,下游需求不及预期,行业竞争加剧。 内容目录 1.阿里资本开支有望提速,模型迈向“逻辑自洽”新范式..............................................................41.1.阿里巴巴Q3业绩:阿里云收入同增34%,资本开支有望加速.........................................41.2. DeepSeekMath-V2:从“结果拟合”到“逻辑自洽”的范式跃迁.......................................42. Ironwood实现万卡级集群扩展,自研OCS引领互连革命...........................................................52.1.谷歌Ironwood:9216颗芯片全互连共享1.77PB内存.........................................................52.2.谷歌OCS交换机:MEMS技术具备低功耗、低成本优势,重塑数据中心互联架构......73.风险提示............................................................................................................................................10 图表目录 图1:IMO-ProofBench基准测试基础子集与进阶子集的专家评估结果........................................5图2:TPUv4:4096颗芯片通过OCS共享内存................................................................................5图3:Ironwood:9216颗芯片通过OCS共享内存............................................................................6图4:Ironwood芯片架构......................................................................................................................6图5:Ironwood机架..............................................................................................................................7图6:网络架构变化:a)传统网络架构,b)谷歌Apollo基于OCS网络架构............................7图7:不同OCS技术路径对比.............................................................................................................8图8:谷歌Palomar OCS交换机架构..................................................................................................8图9:每个维度通过16台OCS交换机连接.......................................................................................9 1.阿里资本开支有望提速,模型迈向“逻辑自洽”新范式 1.1.阿里巴巴Q3业绩:阿里云收入同增34%,资本开支有望加速 阿里巴巴与11月25日发布三季报,本季度阿里云收入同比实现34%的强劲增长,外部客户收入增速加快至29%,主要驱动力来自于AI的持续爆发性需求和公共云使用量的激增。公司的旗舰模型Qwen2.5-Max在真实世界编码任务、智能体工具使用能力等专项评估基准中位列全球前茅。同时,阿里巴巴在“AI+云”战略上的持续投入,进一步巩固了其作为市场领导者的地位,并为加速期奠定了技术基础。公司持续加强从高性能AI基础设施到基础模型的全栈AI能力,将其视为决定性的竞争优势。阿里云不仅是中国AI云市场的明确领导者,市场份额大于第二至第四大供应商的总和,还在混合云和金融云等细分市场保持超越行业的增速。这种市场地位和技术领先性,通过与NBA、万豪中国等企业在AI计划上的合作加速落地,并延伸至消费者侧-Qwen App在公开测试首周下载量即突破千万,标志着企业AI和消费者AI双轮驱动的全面启动。 资本开支方面,公司提到的3800亿资本开支实际上是一个为期三年的规划数字,但公司服务器上架速度仍然远远跟不上客户订单的增长速度,不排除进一步增加投资以满足客户需求。 1.2.DeepSeekMath-V2:从“结果拟合”到“逻辑自洽”的范式跃迁 从“结果拟合”向“过程严谨性”的范式跃迁,DeepSeekMath-V2标志着人工智能在复杂逻辑推理领域实现了关键的技术跨越。与传统大模型仅依赖“结果监督”(即只要最终答案正确即可,忽略过程中的逻辑漏洞)不同,该模型引入了基于Lean 4形式化证明语言的自我验证机制(Self-Verification),将训练重心升级为全链路的“过程监督”。通过构建高精度的验证器,模型能够在推理过程中自主且严谨地核验每一个逻辑步骤的有效性。这一机制从根本上抑制了现有大模型普遍存在的“逻辑幻觉”问题,确保了推理路径的数学严密性,使其在处理高阶定理证明等容错率极低的复杂任务时展现出显著的性能优势。 DeepSeekMath-V2成功验证了测试时算力(Test-Time Compute)的高效扩展路径。这意味着通过在推理端增加计算投入(即允许模型进行多路径探索与自主纠错),可以大幅突破模型参数规模带来的性能天花板,获得比单纯堆砌训练算力更高的边际收益。这种具备“自主逻辑闭环”能力的架构,不仅巩固了DeepSeek在通用人工智能核心推理赛道上的技术护城河,也为AI从简单的辅助工具迈向独立解决未知科学难题奠定了坚实的技术基石。 数据来源:《DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning》,东吴证券研究所 2.Ironwood实现万卡级集群扩展,自研OCS引领互连革命 2.1.谷歌Ironwood:9216颗芯片全互连共享1.77PB内存 在此前Hot Chips 2025大会中,谷歌介绍了其新一代TPU,代号Ironwood,专为大模型AI推理设计。其突破性的创新包括:1)单SuperPod节点最多容纳9216颗芯片,使用OCS交换机共享内存,相比于TPUv4的4096颗芯片,Ironwood每Pod芯片数量翻倍;2)9216颗芯片总共共享1.77PB内存,在FP8精度下,单SuperPod性能算力可达42.5EFLOPS,其每瓦性能是上一代TPU Trillium的2倍;3)具备可靠性、可用性以及可服务性,采用第三代液冷基础设施。 谷歌Ironwood互连架构与TPUv4类似,其中每Cube代表单个机架,单机架由64颗TPU组成,按4×4×4网格排列。在TPUv4中搭配64个Cube形成单台超级计算机(SuperPod),总计4096颗TPU芯片;在Ironwood中单SuperPod共有144个Cube,总计9216颗TPU芯片。每Cube内芯片使用ICI直连,不同Cube中芯片通过OCS交换机进行ICI直连。 数据来源:Hot Chips 2025,东吴证券研究所 数据来源:Hot Chips 2025,东吴证券研究所 Ironwood采用双die TPU设计,使用8层HBM3e内存,提供192GB容量和7.3TB/s的带宽。每个Ironwood Tray包含4颗TPU,采用液冷设计,每机架包含16个计算托盘,总共64颗TPU,同时与16个CPU主机机架连接。机架内所有互连均采用铜缆,OCS提供与其他机架的连接。 数据来源:Hot Chips 2025,东吴证券研究所 数据来源:Hot Chips 2025,东吴证券研究