AI智能总结
分析师:唐月登记编码:S0730512030001tangyue@ccnew.com 021-50586737 ——计算机行业分析报告 证券研究报告-行业分析报告 强于大市(维持) 发布日期:2026年01月29日 投资要点: ⚫The Information报道,DeepSeek将在2026年2月中旬推出新一代旗舰AI模型DeepSeek V4,V4编码能力超越Claude和GPT系列。我们认为V4对标预期中在2025年5月发布的R2模型。 ⚫2026年1月12日,DeepSeek论文聚焦分配的稀疏化方案,引入了名为“Engram”的条件记忆模块,明显改善了模型性能,成为MOE的重要补充。同时通过对计算与内存的解耦,缓解了当前GPU内存受限的困境,有望大幅缓解国产AI芯片厂商HBM被卡脖子的境况。 资料来源:中原证券研究所,聚源 相关报告 《计算机行业月报:手机端AI应用加速,DeepSeek将加大预训练规模》2025-12-08《人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的发展潜能》2025-10-16 《人工智能专题:后R1时代,DeepSeek发展的三大阶段》2025-10-14《人工智能专题:三大要素齐发力,AI应用步入全面加速期》2025-03-07 ⚫2026年1月1日,DeepSeek论文提出了名为mHC的新网络架构,解决信息的流动。mHC架构是建立在此前字节发布的HC基础上,重点改进了ResNet架构信息通道宽度受限、增加的计算冗余和内存占用的问题。在MoE模型上,mHC使得模型训练的收敛速度提升了约1.8倍。 ⚫DeepSeek在模型DeepSeek-OCR和DeepSeek-OCR2中,将视觉作为文本压缩媒介的新方法,将文本以图片的方式进行输入,可以极大减少输入所需要的token数量,解决长文本输入问题。 联系人:李智电话:0371-65585629地址:郑州郑东新区商务外环路10号18楼地址:上海浦东新区世纪大道1788号T1座22楼 ⚫2026年1月4日,DeepSeek更新了R1论文,从22页增加到了86页,让业界对V4的发布充满了更多的期待。根据论文的成本数据,R1的总训练成本为586万美元,远低于顶级模型训练动辄千万美元的门槛,其中预训练和后训练分别占总成本的95%和5%。 ⚫结合DeepSeek当前的研究成果,我们给出V4潜在的创新方向的猜想和影响力预测: (1)模型成本的降低,有望较大缓解地目前国内缺芯的状况。 (2)继续开源路线,同时模型能力超越闭源模型。有望深刻改变海外AI产业的发展格局,利好AI应用的落地。 (3)基于独立于transformer的全新架构。这意味着V4将带来里程碑意义的技术突破,开启大模型发展的新范式,帮助人类更快地通往AGI。 (4)与国产芯片进一步的深度融合,可能部分或全部采用国产芯片进行训练,利好国产算力的生态建设。 风险提示:国际局势的不确定性;海外AI产业竞争格局变化带来市场调整风险。 内容目录 1. DeepSeek最新进展........................................................................................32.稀疏化分配方案的引入,将带来性能提升和计算与内存的解耦......................53.模型层间信息传输方式的底层架构创新..........................................................74.长文本输入:用图像承载文本信息,实现高效压缩........................................85. R1论文从22页更新至86页,更加公开透明.................................................86. V4的潜在创新猜想和影响力预测....................................................................97.风险提示.......................................................................................................10 图表目录 图1:TileLang简介................................................................................................................4图2:模型Scaling的新范式.................................................................................................4图3:Engram引入后的模型架构.............................................................................................5图4:稀疏性分配与Engram的内存拓展对模型性能的影响....................................................6图5:密集型模型、MoE模型、Engram模型之间的预训练性能比较.......................................6图6:mHC、HC、ResNet架构对比图.......................................................................................7图7:DeepSeek-OCR在压缩比和性能上的表现...................................................................8图8:DeepSeek-R1的训练流程...............................................................................................9图9:大模型智能水平随时间增长的情况.............................................................................10 1.DeepSeek最新进展 根据The Information报道,DeepSeek将在2026年2月中旬推出新一代旗舰AI模型DeepSeek V4,V4编码能力超越Claude和GPT系列。 继2025年春节期间推出DeepSeek-R1以后,预期在2025年5月推出的R2一直是市场关注的焦点,但是R1在5月仅进行一次小版本更新看齐头部模型性能。接着在后续V3.1和V3.2的更新中,DeepSeek不再采取基础模型加推理模型这种模式(V3和R1),而是直接推出两者结合的混合模型,因而V4就已经对标预期中的R2模型。 此前我们在专题报告中分析了DeepSeek在R1之后进行的重要发展动向,包括: (1)适配国产芯片:2025年8月DeepSeek发布了V3.1,其采用UE8M0 FP8缩放格式训练,面向即将发布的下一代国产芯片而设计。9月DeepSeek发布V3.2-Exp,发布当天华为昇腾和寒武纪宣布完成对其的零日适配,V3.2-Exp还同时开源TileLang和CUDA两个版本的算子,极大地改善了CUDA带来的从英伟达GPU切换到国产芯片的生态壁垒难题(详见《人工智能专题:后R1时代,DeepSeek发展的三大阶段》)。 资料来源:北京大学,中原证券研究所 (2)在新的注意力机制上的研究:包括了在2025年2月在论文《Native SparseAttention: Hardware-Aligned and Natively Trainable Sparse Attention》中提出了原生稀疏注意力(NSA),在2025年9月发布的V3.2-Exp中引入了DeepSeek稀疏注意力机制(DSA),从而将稀疏注意力从推理阶段进一步拓展到了预训练阶段,为模型计算效率的提升、模型上下文的拓展、后训练潜能的释放留下了更多的发展空间(详见《人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的发展潜能》)。 资料来源:中原证券研究所 (3)大模型发展路径的探索:2025年12月1日,DeepSeek发布了V3.2和V3.2-Speciale,同时进行了更多关于模型发展路径及Scaling的有效性的探索。V3.2并没有针对测试集的工具进行特殊训练,是真实获得的泛化能力,证明了强化学习有效性。同时在模型训练方面,V3.2验证了扩大后训练强化学习带来的模型能力提升路径(DeepSeek-V3.2把相当于预训练成本10%以上的算力投入在了后训练的强化学习中),同时DeepSeek也计划加大预训练规模来实现模型能力更大的提升。DeepSeek通过在强化学习中使用合成数据,带来了DeepSeek-V3.2在Tau2Bench、MCP-Mark和MCP-Universe基准测试中的性能显著提升,取得了在真实环境中进行强化学习所无法获得的能力,证实了合成数据的发展潜力。(详见《计算机行业月报: 手机端AI应用加速,DeepSeek将加大预训练规模》) 下面我们将就DeepSeek后续发布的5篇论文展开技术走向分析,并对V4的潜在影响力进行预测。 2.稀疏化分配方案的引入,将带来性能提升和计算与内存的解耦 2026年1月12日,DeepSeek发布新论文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》,聚焦分配的稀疏化方案。 当前主流的大语言模型在面对知识类的问题时,仍然需要动用宝贵的推理资源通过计算来模拟检索过程,造成了大量的资源浪费。考虑到大模型的稀疏性不应该只体现在计算上,还应该体现在分配上,DeepSeek本次提出了“条件记忆”的新机制,并引入了名为“Engram”的条件记忆模块,依靠稀疏查找来检索固定知识的静态嵌入。 资料来源:DeepSeek,中原证券研究所 由于Engram是对文本进行哈希映射,映射对象为规模可扩展的静态记忆表,进行常数时间复杂度的知识检索,查找复杂度与模型规模无关,因而达到了稀疏的效果。实验表明,当20%-25%的稀疏参数预算分配给Engram时(剩余部分留给MoE),模型整体性能达到最佳。 资料来源:DeepSeek,中原证券研究所 DeepSeek的实验数据研究表明,Engram的引入可以实现更高的效率,成为MoE的理想补充。除了知识密集型任务,Engram的引入还可以使得通用推理、代码、数学问题上获得显著的改进。DeepSeek认为这主要源于Engram减轻了主干网络在早期重构静态知识的负担,从而增加了可用于复杂推理的有效深度。同时,Engram架构还在长文本处理方面展现出了结构性优势,在处理需要极高精度的长文本任务时,具备更强的优越性。 除此以外,Engram引入后,将模型参数表卸载到主机内存并不会带来显著效率损失,因而很大程度上缓解了当前GPU内存受限的困境,为模型参数的进一步提升打开了通道。这意味着Engram实现了计算与内存的解耦,为挂载TB级别的超大规模记忆库提供了可行路径,有望大幅缓解国产AI芯片厂商HBM被卡脖子的境况。 3.模型层间信息传输方式的底层架构创新 2026年1月1日,DeepSeek发布新论文《mHC: Manif