AI智能总结
AI泛化模式到来 核心观点 •从NV到Google,AI需求升级不断 谷歌Gemini3.0惊艳亮相后,AI迎来新范式,TPU组成的算力集群强化了AI生态,从而带来更多新需求。OCS光交换机成为新增量,新型光互连技术加速迭代,液冷26年正式从选配成为标配。NV芯随着下一代芯片RUBIN的推出,正交背板和电源等新增需求明确显现,继续推动产业链技术迭代升级。同时,摩尔、沐曦等国产算力芯片厂上市,意味着国产AI产业加速追赶海外的时刻到来。 •大模型竞争从产业到资本全面展开 25年末,谷歌、阿里为代表的传统互联网厂商的大模型全面赶超openAI和deepseek等新兴大模型厂并形成反攻之势,标志着大模型的竞争达到新的高度。26年初智谱、Minimax即将登陆港股,模型厂商已经正式进入资本市场,我们预计26年AI模型与应用将百花齐放。 •AI正从基础能力竞争到泛应用化铺开 26年,我们预计随着模型能力的进一步跃升,AI在产业的落地有望井喷。机器人将从机械能力的比拼到大脑、控制能力的竞赛,智能驾驶从1到N的时刻越来越临近。随着26年SpaceX的上市,太空算力有望成为新一轮中美科技的制高点。 ••受益标的:谷歌相关产业链:(光库科技、赛微电子、腾景科技、英维克),英伟达相关产业链:(胜宏科技、沪电股份、中际旭创、天孚通信、新易盛、英维克、中恒电气、麦格米特、工业富联);国产算力:(寒武纪、海光信息、中科曙光、华丰科技、神州数码、烽火通信、华勤技术);AI应用:(合合信息、金山办公、福昕软件、万兴科技、美图公司、鼎捷数智、汉得信息);机器人:(均胜电子、新泉股份、恒勃股份、汉威科技、福莱新材、品茗科技);智驾:(小马智行、文远知行、万马科技);商业航天:(西部材料、再升科技、超捷股份、通宇通讯、迈为股份、钧达股份、信维通信、天银机电) 1)政策落地不及预期;2)AI产品下游需求不及预期;3)核心技术水平升级不及预期;4)全球经济发展的不确定性。 目录 01从NV到Google,AI需求升级不断03大模型产业步入新阶段02国产算力加速追赶04智领未来05受益标的与风险提示 01从NV到Google,AI需求升级不断Google强化AI生态NV需求持续放量 1.1.1谷歌引领全球大模型跃迁 多模态能力重构行业标准:从“处理”到“理解关联”的跨越Video-MMMU测试87.6%的得分意味着模型不仅能识别“球在滚动”,还能推断“因摩擦力导致减速”的物理规律。 月活数据持续高增:桑达尔·皮查伊在官方博客中回顾了Gemini过去两年的进展:AIOverviews月活跃用户已达20亿,Gemini应用月活突破6.5亿,此外有超过70%的云客户以及1300万开发者正在使用其生成式模型。 资料来源:今日头条,OpenRouter,界面新闻,华西证券研究所 1.1.2英伟达芯片迭代速度明显加快,产业趋势明确 英伟达芯片迭代速度明显加快:今年6月,英伟达披露未来三代数据中心半导体技术路线图,新GPU架构每年一更:2025年推出Blackwell Ultra GPU(8S HBM3e 12H);2026年推出Rubin GPU(8S HBM4);2027年推出Rubin Ultra GPU(12S HBM4),新一代基于Arm的Vera CPU,以及NVLink6 Switch(3600GB/s)。目前Blackwell产品已经全面投产:Grace Blackwell解决方案已全面投产,2025年以来向四大 平台出货360万台Blackwell GPU,我们判断Rubin有望延续Blackwell的趋势。 资料来源:芯东西,华西证券研究所 1.1.2英伟达芯片迭代速度明显加快,产业趋势明确 Rubin是英伟达下一阶段的战略重拳:推理速度将达50 petaflops(比Blackwell的20 petaflops高出一倍多),配备288 GB HBM4内存。基于Rubin的Vera Rubin NVL144机柜(72颗Grace CPU +144颗Rubin GPU)将提供3.6 exaflops(FP4推理)和1.2 exaflops(FP8训练)的算力,是Blackwell Ultra NVL72的3.3倍。到2027年,Rubin Ultra NVL576将进一步提升至15 exaflops(FP4)和5 exaflops(FP8),性能是Blackwell Ultra NVL72的14倍。此外,英伟达于今年9月推出Rubin CPX,是专为大模型上下文推理而生。 资料来源:芯东西,华西证券研究所 1.1.3谷歌TPU迭代加快,V8即将问世 2025年ColudNext大会上,谷歌隆重推出第七代Tpu:Ironwood的问世,代表着AI发展及其底层基础架构演进的重大转变。Ironwood的设计旨在从容应对复杂计算和通信需求,Ironwood根据AI工作负载的需求提供两种规模配置:256颗芯片配置和9,216颗芯片配置。当扩展到每个Pod达9,216颗芯片时,总运算能力可达42.5百亿亿次浮点运算每秒(42.5Exaflops),是世界上最大的超级计算机ElCapitan的24倍以上。 1.1.3谷歌TPU迭代加快,V8即将问世 资料来源:Google云官网,华西证券研究所 1.1.41.6T光模块持续推进,NPO打开Scale up全新增量 Npo全名近封装光学(NPO):是一种将光引擎与计算芯片在物理上靠近但不完全集成的技术方案。其核心特征是将光引擎从可插拔模块中解放出来,做成一个独立的光学小芯片,但不直接和计算芯片(如GPU、ASIC)封装在同一基板上。 NPO是可插拔光模块和CPO中的过渡方案:目前在英伟达GB200系列中Nvlink的铜缆仍有优势,但是随着未来GPU的数量增加(RubinUltra 576版本),功耗和传输速率的问题逐步加大,因此“光进铜退”成为可能,NPO打开Scale up全新增量。 资料来源:技术论文,华西证券研究所 1.1.4谷歌OCS技术打开光器件想象空间 OCS是(Optical Circuit Switching)是谷歌自研的光电路交换技术,直接在光域完成信号路由与交换,彻底摒弃传统的"光-电-光"转换过程。互联结构上采用3D拓扑模块:每个机架内的4x4x4 Torus模块通过OCS连接,形成16x16x16的逻辑架构,支持灵活任务分割(如8x8x4或16x8x16)。低延时、低成本、高稳定性:谷歌的ICI网络成本低于大多数可切换式扩展网络。TPU之间的直接链路意味着对于物理上彼此靠近或重新配置为直接连接的TPU来说,可以实现更低的延迟。 资料来源:Semianalysis,华西证券研究所 1.1.5正交背板有望成为PCB新增量 正交背板是英伟达为Rubin Ultra NVL576架构设计的革命性PCB互联方案,本质是一块多的超大尺寸PCB板,与交换网板呈90°垂直连接,替代传统铜缆系统。 PCB板背板取代了铜线背板,作为GPU与罐内NVSwitches之间的放大连接。这一转变主要是由于在较小的占地内安装电缆变得更加困难。其优势在于信号路径的变短、散热效率的提升、空间利用率的提升,同时PCB相关的树脂材料、Q 布等环节有望受益。 资料来源:Semianalysis,华西证券研究所 1.1.6液冷已从选配成为标配,相关公司或已产生实质订单 AI高速互联时代,芯片算力和芯片的功耗成明显的正相关:温度升高会引起电容、电阻以及金属线等材料的热膨胀,进而导致它们的机械变形和结构破坏,最终影响芯片的正常运行。根据我们判断,风冷的极限散热为800W,目前液冷已经从选配成为标配环节。从英伟达GB系列后,其TDP持续提高,此外谷歌的TPU V7 TDP系数已超风冷极限,我们判断,液冷赛道即将开始放量。 1.1.6液冷已从选配成为标配,相关公司或已产生实质订单 我们判断液冷相关产品主动权目前掌握在Csp厂商,而非Odm厂商:目前为了保证自家供应链的稳定性及满足自身持续强化的AI需求,绝大部分液冷产业链会由Csp厂商决定,而中国大陆厂商的扩产速度和意愿有望在产业趋势中高度受益。 二次侧产品包括:冷板组件、快速接头QDC、回歧管RCM、环路工艺冷媒供回歧管LCM、冷量分配单元CDU。一次侧产品包括:干冷器、冷却塔和制冷机组。 资料来源:英维克官方公众号,华西证券研究所 1.1.7AI电力板块持续扩张,相关公司从零至一 AI高速互联时代,芯片算力和芯片的功耗成明显的正相关:因此,机柜内侧PSU有望持续“膨胀”,配电端目前依旧存在低效转换的情况,整个电力链中重复的AC/DC转换不节能,并会增加故障点。800V HVDC有望为电源带来变革:NVIDIA 800V HVDC架构可更大限度地减少能源转换。在数据中心周边将13.8 kV AC网电源直接转换为800V HVDC,消除了大多数中间转换步骤。这种简化的方法可更大限度地减少能源损失,这些损失通常发生在多个AC/DC和DC/DC转换期间。效率方面有望提高。 1.1.7AI电力板块持续扩张,相关公司从零至一 SST技术作为具备前瞻性的设施配电技术正加以研发:为满足AI工厂日益增长的电力需求,NVIDIA正在探索中压整流器的应用。 固态变压器系统集成了中压交流输入单元、电力整流模块和直流输出配电部分。其紧凑且高容量的设计支持计算机架密度提升,直流电力设备具备可扩展性且能大幅节省空间。然而此方式仍处于联合开发中。 资料来源:英伟达电力白皮书,华西证券研究所 02国产算力加速追赶 字节、阿里引领大模型算力需求爆发寒武纪、华为推动国产AI芯片自主化摩尔线程、沐曦打造全栈GPU技术体系 2.1.1字节:从C端爆款到B端赋能,AI算力同比增长超10倍 字节跳动的AI业务主要服务于C端用户和B端企业两大方向。 C端用户方面,字节旗下应用声量领跑市场,用户使用量的上升趋势带来AI推理层面算力需求增加。据QuestMobile数据,截至2025年8月,豆包App月活用户规模超过1.57亿,其主要竞争对手DeepSeek月活约为1.43亿,豆包App成为国内移动端用户量最大的AI聊天助手。此外,字节联合中兴通讯,于12月1日推出搭载豆包手机助手技术预览版的工程样本努比亚M153。AI手机推出预示大模型从“偶尔调用”变成“系统常驻”,直接驱动云端算力需求的爆发。 B端企业方面,火山引擎为企业用户提供性价比极高的模型使用方案,进而促使火山引擎token快速消耗。为了降低企业使用门槛,火山引擎发布了豆包助手API和AI节省计划。企业用户可以通过API接入字节自研的大模型,还可以直接在产品中构建自定义豆包。 在C端和B端需求的催化下,字节算力需求激增。在今年的火山引擎冬季FORCE原动力大会上,火山引擎总裁谭待披露,截至今年12月,豆包大模型日均tokens使用量已突破50万亿,居中国第一、全球第三。该数据在去年12月才4万亿,比去年同期增长超过10倍。 2.1.2加大算力投入,助力模型升级 字节算力投资计划明确模型加速迭代催化训练层面算力需求。12月18日,在2025 年FORCE原动力大会上,字节发布了豆包大模型1.8版本及音视频创作模型Seedance1.5 pro,全面升级多模态Agent能力。 据观点网讯,12月13日,字节跳动在内部沟通会上确认,2026年集团资本支出总额预计为230亿美元,其中约850亿元人民币将专项用于人工智能处理器采购与相关基础设施建设,以满足旗下大模型训练级推理算力需求。 1.豆包大模型1.8:火山引擎最新发布的多模态Agent模型,专为复杂任务执行优化。 2.Seedance 1.5 Pro:豆包视频生成模型的全新版本,实现影视级音视频创作突破。 2.1.3阿里加码AI基建,助力全栈升级