您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国金证券]:计算机行业研究:国内算力斜率陡峭到什么程度? - 发现报告

计算机行业研究:国内算力斜率陡峭到什么程度?

信息技术2026-02-28刘高畅、陈芷婧、鲍淑娴国金证券见***
计算机行业研究:国内算力斜率陡峭到什么程度?

本周观点 开年即“熔断”,从Seedance排队到GLM5“交错思维”。1)一方面,Seedance 2.0节后出现长时间排队现象,印证视频生成对算力的高强度消耗。基于DiT架构的视频推理对显存带宽与并发计算提出更高要求,头部厂商储备面临短期压力,供给缺口正从逻辑推演转化为实质性紧张。2)另一方面,智谱GLM-5明确“交错思维(InterleavedThinking)”机制,开启“以算力换智能”新范式。海量隐式计算(Hidden Tokens)带来单次推理消耗的乘数效应。 训推共振,算力需求极速释放。我们判断,2026年将是中国算力需求从“云端训练”向“训练+推理”双轮驱动转型的关键之年,算力缺口将在更多模态和更广场景的催化下,极速释放。1)训练侧:向高质量与多模态进阶。头部互联网厂商(字节、阿里、腾讯)持续迭代万亿参数级模型,智谱、DeepSeek等新势力快速更新MoE架构。Scaling-law在多模态领域延续性显著,以Seedance为代表的模型对视频、音频及文本的统一理解,推动底层算力需求从单一文本向高消耗的视频/3D训练跃迁,对集群互联带宽与稳定性提出更高要求。2)推理侧:应用落地元年,需求斜率陡峭。2026年AI应用加速渗透,根据QuestMobile数据,豆包APP 2025年12月MAU已突破2.26亿,叠加春晚曝光效应,活跃度有望迈上新台阶;通义千问亦全面打通阿里生态。C端流量与AI漫剧、编程等原生场景爆发,叠加B端垂类模型蓄势,共同驱动实时推理算力消耗大幅增长。我们预测,推理侧需求将成为拉动产业链增长的新引擎。 供给端外部边际改善,内部国产化放量。我们认为,2026年国内算力供给端将从单一的紧缺状态转向结构性平衡,充沛的算力资源将有效承接需求端的爆发,为算力产业链的业绩兑现奠定基础。1)外部方面,根据相关贸易许可清单的更新,NVIDIA H200(合规版)已正式获批进入中国市场,短期内将有效缓解头部互联网厂商在超大规模模型训练上的算力焦虑,助推模型迭代速度。2)与此同时,国产算力芯片的性能与生态建设已跨过“可用”向“好用”的拐点。华为昇腾系列、寒武纪思元系列以及海光深算系列在实战中快速迭代;大厂自研芯片战略进入收获期,百度昆仑芯、阿里平头哥及字节跳动自研芯片均开始大规模部署;而摩尔线程、沐曦、天数智芯等初创厂商也在加速推进IPO进程,进一步丰富了市场供给。3)上游先进制程产能的扩充为芯片供应提供了底层保障。中芯国际刚刚发布的2025年全年财报显示,公司在先进制程及成熟制程的扩产上均取得突破性进展,全年产能利用率稳步回升,资本开支维持高位以确保新增产能的及时释放。 国产算力全链景气加速,有望量价齐升。在供需双侧强逻辑的挤压下,我们预判2026年算力产业链将进入“全链通胀”周期,行业景气度将从核心芯片向AIDC、云与算力服务、配套电力设备及服务器等环节全面外溢。投资策略上,鉴于字节跳动、阿里、腾讯等巨头较为明确的资本开支趋势,其供应链具有较高的业绩确定性,深度绑定头部互联网厂商(CSP)的供应链公司,或将获得显著的超额收益。相关标的 相关标的:东阳光、寒武纪、海光信息、网宿科技、润泽科技、协创数据、华丰科技、大位科技、神州数码、润建股份、科华数据、中芯国际、华虹半导体、中科曙光、禾盛新材、奥飞数据、优刻得、首都在线、云赛智联、瑞晟智能、浪潮信息、潍柴重机、欧陆通等。 风险提示 行业竞争加剧的风险;技术研发进度不及预期的风险;特定行业下游资本开支周期性波动的风险。 内容目录 一、开年即“熔断”,从Seedance排队到GLM5“交错思维”..........................................31.1 Seedance2.0:开年“拥堵”,供需错配信号强烈.............................................31.2 GLM5:Interleaved thinking,开启“以算力换智能”新范式...................................3二、训推共振,算力需求极速释放.................................................................42.1大模型“军备竞赛”并未降温,向更高质量、更多模态加速进步...............................42.2推理算力需求正以超预期的斜率上升.......................................................7三、供给端外部边际改善,内部国产化加速放量.....................................................9四、国产算力全链通胀,有望量价齐升............................................................10五、相关标的..................................................................................12风险提示......................................................................................12 图表目录 图表1:Seedance 2.0暂不支持真人人脸.........................................................3图表2:Seedance 2.0排队页面.................................................................3图表3:“交错思考”和“保留思考”示意图......................................................4图表4:Seedance 2.0生成视频展示(1)........................................................5图表5:Seedance 2.0生成视频展示(2)........................................................5图表6:在各项评测中,Seedance 2.0的综合表现达到行业领先水平..................................5图表7:AI Arena模型盲测数据..................................................................6图表8:在全球权威的Artificial Analysis榜单中,GLM-5位居全球第四、开源第一......................6图表9:GLM-5 Coding能力及Agent能力取得开源SOTA...........................................7图表10:2025年累计抖音播放量TOP10漫剧统计,前十中AI漫及动态漫居多........................8图表11:GPT‑5.3-Codex在SWE-Bench Pro上达到了顶尖(state-of-the-art)水平.......................8图表12:蚂蚁阿福“健康陪伴”功能.............................................................9图表13:国产通用GPU从“可用”向“好用”升级................................................9图表14:中芯国际产能/利用率持续提升..........................................................10图表15:腾讯云宣布全面适配主流国产芯片......................................................10图表16:智谱宣布GLMCoding Plan价格调整....................................................11图表17:2020-2028年中国智能算力规模及预测..................................................12 一、开年即“熔断”,从Seedance排队到GLM5“交错思维” 1.1Seedance2.0:开年“拥堵”,供需错配信号强烈 Seedance排队长达8小时,确立算力刚需。2026年春节复工首周,Seedance 2.0模型展现出超预期的用户粘性与算力消耗强度。多名用户反映,使用即梦AI Seedance2.0模型出现视频生成延时、排队时间长:使用网页版即梦Seedance2.0生成10秒以内视频,普通会员2月24日、25日连续两天都等了6个小时以上,排队人数有上万人;春节期间用户人数较少、生成速度快,但节后生成视频要8小时起步。我们观察到,这并非单纯的流量营销事件,而是视频生成作为高算力密度场景落地的标志性信号。 来源:江南都市报,国金证券研究所 来源:江南都市报,国金证券研究所 多模态高并发,或击穿头部大厂算力储备。视频生成的底层逻辑基于DiT(DiffusionTransformer)架构,其对显存带宽(Memory Bandwidth)与并发计算量(FLOPs)的需求相比文本生成呈指数级跃升。字节跳动作为国内领先的大厂之一,依然在短期内面临供给熔断,这直观地验证了我们在年度策略中关于“2026年国内算力需求斜率高”的判断。这种“排队”现象揭示了一个产业现实:在向视频/3D等多模态演进的过程中,推理侧的算力缺口正从逻辑推演转化为实质性的产能短缺,且这种短缺将随着多模态应用的普及而常态化。 1.2GLM5:Interleaved thinking,开启“以算力换智能”新范式 GLM5正式开源,明确“交错思考”模式。1)2月12日,智谱宣布上线并开源GLM5,在Coding与Agent能力上,取得开源SOTA表现,在真实编程场景的使用体感逼近ClaudeOpus4.5,擅长复杂系统工程与长程Agent任务。在全球权威的ArtificialAnalysis榜单中,GLM-5位居全球第四、开源第一。2)在SFT阶段,GLM5将最大上下文长度扩展至202752个token。配合更新后的聊天模板,模型支持三种不同的思考特征: 交错思考(Interleaved Thinking):模型在每次响应和工具调用前进行思考,提升指令遵循和生成质量;保留思考(reserved Thinking):在CodingAgent场景中,模型自动在多轮对话中保留所有思考块,复用已有推理而非重新推导,从而减少信息丢失和不一致性,适合长程复杂任务;轮级思考(Turn-level Thinking):模型支持在会话中对每轮推理进行精细控制,面对轻量级请求时可禁用思考,从而降低延迟/成本,面对复杂任务时可启用思考,从而提升精度和稳定性。 “交错思考”意味着以算力换智能。这一技术路径的变迁意味着,推理过程不再是线性的Token输出,而是包含了海量的隐式计算(Hidden Tokens)。模型在输出最终答案前,需要在后台进行多次自我推演、纠错与优化。对于算力产业链而言,这是一个乘数因子:即便用户规模线性增长,单次推理任务的算力消耗也将成倍提升。 来源:智谱官方公众号,国金证券研究所 逻辑推理叠加国产适配,同时也拉高算力门槛。GLM-5在编程(Coding)及复杂数理场景下的优异表现,实际上是建立在更高强度的推理算力消耗之上的。结合我们此前的分析,国