您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [华创证券]:计算机行业重大事项点评:DeepSeek,V3.2重塑开源模型性能边界 - 发现报告

计算机行业重大事项点评:DeepSeek,V3.2重塑开源模型性能边界

信息技术 2025-12-15 华创证券 胡诗郁
报告封面

计算机2025年12月15日 计算机行业重大事项点评 推荐 (维持) DeepSeek:V3.2重塑开源模型性能边界 事项: 华创证券研究所 ❑2025年12月1日,DeepSeek正式发布新一代开源大模型DeepSeek-V3.2及其长思考增强版DeepSeek-V3.2-Speciale。 证券分析师:吴鸣远邮箱:wumingyuan@hcyjs.com执业编号:S0360523040001 评论: ❑DeepSeek-V3.2的综合能力已明显处于开源模型的领先地位。DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用Agent任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,AIME 2025数学竞赛得分93.1%(GPT-5为94.6%),仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2保持相近性能的同时输出长度大幅降低,显著减少了计算开销与用户等待时间。DeepSeek V3.2Speciale的目标是将开源模型的推理能力推向极致,探索模型能力的边界。该模型是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力,在主流推理基准测试上的性能表现媲美Gemini-3.0-Pro。V3.2-Speciale模型成功斩获IMO 2025、CMO 2025、ICPC World Finals 2025及IOI 2025金牌。 联系人:周志浩邮箱:zhouzhihao1@hcyjs.com 行业基本数据 占比%股票家数(只)3380.04总市值(亿元)57,755.164.86流通市值(亿元)52,361.465.49 ❑DeepSeek-V3.2通过DSA技术,实现效率与性能双优。闭源模型与开源模型之间的性能差距日益扩大的主要原因是在架构层面,1)对标准注意力机制的过度依赖严重制约了长序列处理的效率;2)在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了模型在高难度任务上的表现;3)在AI智能体领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署效果。DeepSeek-V3.2通过引入创新的稀疏注意力机制(DSA),将计算复杂度从O(L²)降至O(Lk),在保持长上下文性能的同时显著提升了计算效率。该技术不仅解决了传统注意力机制对长序列处理的效率瓶颈,还弥补了开源模型在训练资源和智能体能力上的不足,使得V3.2在多项基准测试中性能大幅提升,同时以更低的成本缩小了与前沿专有模型的差距,成为高性价比的智能体替代方案。 ❑DeepSeek-V3.2实现了将思考深度融入工具使用的突破性进展。DeepSeek-V3.2成功克服以往版本在思考模式下无法调用工具的局限,成为DeepSeek推出的首个同步支持思考模式与非思考模式工具调用的模型。这一成就得益于团队创新性提出的大规模Agent训练数据合成方法,该方法通过构建涵盖1800多种环境与超过8.5万条复杂指令的“难解答、易验证”的强化学习任务,系统化提升了模型的推理泛化能力。基于此,DeepSeek-V3.2在智能体权威评测中达到了当前开源模型的最高水准,显著缩小了与闭源模型的技术差距。该模型并未针对评测工具进行任何特殊训练,其优异表现完全源于自身强大的泛化性能,在复杂应用场景中,V3.2将展现出更可靠的适应能力与实用价值。 相关研究报告 《计算机行业2026年度投资策略:企业级应用:AI加速在企业端应用落地》2025-12-04《 计 算 机 行 业 重 大 事 项 点 评 :Google: NanoBanana Pro引领行业范式转移》2025-11-24《计算机行业重大事项点评:Google:Gemini 3开启全模态革命》2025-11-24 ❑投资建议:建议关注AI细分景气方向: ⚫国产算力:寒武纪、海光信息、阿里巴巴、中科曙光、景嘉微、龙芯中科等。⚫企业级服务:1)广告:蓝色光标、易点天下;2)编程:卓易信息、普元信息;3)决策:海康威视、科大讯飞、第四范式;4)ERP:金蝶国际、用友网络、鼎捷数智;5)办公:金山办公、合合信息、三六零、福昕软件。 ⚫应用场景:1)工业:中控技术、索辰科技;2)军用:中国卫星、中科星图、佳缘科技;3)医疗:晶泰控股、讯飞医疗科技;4)财税:税友股份、中科江南、冠中生态;5)法律:华宇软件、金桥信息;6)教育:科大讯飞、豆神教育;7)招聘:同道猎聘、BOSS直聘、北森控股;8)电力:国网信通、国能日新;9)驾驶:地平线机器人、禾赛科技、速腾聚创;10)电商:聚水潭、微盟、光云科技;11)安全:深信服。 ❑风险提示:技术进展不及预期;模型落地不及预期;商业落地不及预期。 目录 一、DeepSeek-V3.2:重塑开源模型性能边界.....................................................................4 (一)DeepSeek-V3.2:达到顶尖的推理能力..............................................................4(二)DeepSeek-V3.2-Speciale:专攻极限推理,奥赛金牌级性能的研究模型.......4(三)DeepSeek-V3.2:DSA技术实现效率与性能双优.............................................5(四)DeepSeek-V3.2:首个实现思考与工具调用融合的智能体模型......................6 二、投资建议...........................................................................................................................8 三、风险提示...........................................................................................................................8 图表目录 图表1 DeepSeek-V3.2评测得分...........................................................................................4图表2 DeepSeek-V3.2-Speciale等在数学、代码与通用领域评测集上的得分................5图表3 DeepSeek Sparse Attention.........................................................................................5图表4 DeepSeek-V3.2的注意力架构...................................................................................6图表5 DeepSeek-V3.2与其他模型在各类智能体工具调用评测集上的得分..................6图表6 DeepSeek-V3.2思考模式下工具调用的API请求示意图.....................................7图表7 DeepSeek-V3.2与闭源/开源模型对比......................................................................7 一、DeepSeek-V3.2:重塑开源模型性能边界 (一)DeepSeek-V3.2:达到顶尖的推理能力 DeepSeek-V3.2在开源模型中达到推理性能领先水平。2025年12月1日,DeepSeek正式发布新一代开源大模型DeepSeek-V3.2及其长思考增强版DeepSeek-V3.2-Speciale。官方网页端、App和API均已更新为正式版DeepSeek-V3.2。Speciale版本目前仅以临时API服务形式开放,以供社区评测与研究。DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用Agent任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,AIME 2025数学竞赛得分93.1%(GPT-5为94.6%),仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2保持相近性能的同时输出长度大幅降低,显著减少了计算开销与用户等待时间。 资料来源:DeepSeek、华创证券 (二)DeepSeek-V3.2-Speciale:专攻极限推理,奥赛金牌级性能的研究模型 DeepSeek-V3.2-Speciale通过增强推理与数学证明能力,在国际奥赛中已达到金牌水平。与DeepSeek-V3.2同步发布的DeepSeek-V3.2-Speciale是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。DeepSeek-V3.2-Speciale的目标是将开源模型的推理能力推向极致,探索模型能力的边界。该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力,在主流推理基准测试上的性能表现媲美Gemini-3.0-Pro。更令人瞩目的是,V3.2-Speciale模型成功斩获IMO 2025(国际数学奥林匹克)、CMO2025(中国数学奥林匹克)、ICPC World Finals 2025(国际大学生程序设计竞赛全球总决赛)及IOI 2025(国际信息学奥林匹克)金牌。其中,ICPC与IOI成绩分别达到了人类选手第二名与第十名的水平。虽然在高度复杂任务上,Speciale模型大幅优于标准版本,但消耗的Tokens也显著更多,成本更高。目前,DeepSeek-V3.2-Speciale仅供研究使用,不支持工具调用,暂未针对日常对话与写作任务进行专项优化。 (三)DeepSeek-V3.2:DSA技术实现效率与性能双优 闭源模型与开源模型之间的性能差距日益扩大的主要原因是在架构层面。对标准注意力机制的过度依赖严重制约了长序列处理的效率;在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了模型在高难度任务上的表现;在AI智能体领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署效果。 资料来源:OpenCSG、华创证券 DeepSeek通过DSA技术,在保持高性能的同时实现了计算效率的显著突破。DeepSeek在9月底发布实验版V3.2-Exp时,提出了稀疏注意力机制(DeepSeek Sparse Attention,DSA),DSA有效解决了传统注意力在长序列上O(L²)计算复杂度的瓶颈,将复杂度降 至O(L·k)。DSA的核心组件闪电索引器和细粒度token选择机制,能快速筛选最相关的token进行计算,并选用ReLU激活函数提升吞吐。训练上采用两阶段策略:先以密集注意力训练索引器对齐分布,再引入稀疏机制进行大规模训练。该机制不仅使模型在长上下文任务中显著加速推理且无明显性能损失,还支持FP8精度并适配MLA架构。实际应用效果显著,在128K长度序列上,推理成本降低数倍(如预填充成本从每百万token0.7美元降至0.2美元),性能在多个基准测试中大幅提升,成为智能体场景中具有成本效益的替代方案,缩小了开源模型与前沿专