您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [东方证券]:传媒行业LLM专题研究(一):长期模型优先,看好coding商业化价值 - 发现报告

传媒行业LLM专题研究(一):长期模型优先,看好coding商业化价值

文化传媒 2026-05-11 项雯倩,金沐阳 东方证券 冷水河
报告封面

长期模型优先,看好coding商业化价值 LLM专题研究(一) 日期:2026年5月11日 核心观点 LLM技术发展从预训练架构创新向后训练和推理驱动演绎。我们复盘LLM (Large Language Model)的技术路径发展,2025年以前模型厂商通过堆算力、数据,做大模型参数,从而发挥预训练scaling law,打造底模的智能基础,以此锁定继续在AI牌桌上角逐的入场券,即我们认为预训练是大模型竞赛的首要核心壁垒。2025年后以DeepSeek R1为代表的推理模型,发挥RL阶段Scaling Law,使其成为提升大模型能力的核心手段。展望26年,LLM主流架构基本确定,但行业仍在探索更高效架构,最大化利用算力提升建模效率的路径;此外模型性能改进的核心动能转向后训练和推理阶段,包括RLVR向其他领域拓展、以及推理时的inference-time scaling等,后者仍对计算资源有较高要求。 行业CapEX高投入趋势确定,投入领先的厂商更有可能拉开技术代差。从25~28年CapEX投入量级的3年CAGR增速看,基数和增速均较快的包括OpenAI(147%)/Anthropic(96%)/谷歌(39%)/Meta(35%)。模型厂商的投入量级有所分化,如海外互联网厂商谷歌和Meta的CapEX投入量级在千亿美元以上,国内互联网厂商(阿里、腾讯、字节)和海外AI模型大厂(OpenAI、Anthropic)投入量级在百亿美元,国内AI模型独立厂商智谱和MiniMax的研发投入均在百亿美元以内。我们认为投入量级的差距主要是研发的试错成本,更多的算力和人才,可以支撑不同技术路线的同时探索,或是此前拉开技术代差的原因之一。因此我们判断大模型赛道的竞争或是两阶段的往复出现,本质是由技术进步决定,拥有更高CapEX投入和人才密度的厂商更有可能推动技术范式突破,由此直接提升其竞争优势;而在技术发展平台期,各家模型智力差距收窄,更关注快速迭代harness、形成更好产品体验,由此带来强爆发的商业化增长。 Coding成为现阶段LLM商业化价值最高的场景,技术特性与闭环迭代能力推动其率先爆发。Coding场景的先发优势源于两大技术支撑:内生思维链让模型可自发完成推理与思考过程,Coding的可验证性则通过反馈循环实现能力持续提升,二者形成完整迭代闭环。我们梳理当前头部AI coding产品ARR,测算当前全球Coding市场规模约80亿美元,CR4达86%,行业集中度高。长期来看,基于人力成本替代逻辑,远期中美两国Coding的TAM有望达4000亿美元。整体来看,国内厂商尚未形成海外头部厂商的技术绝对优势,随着技术迭代与场景深耕,聚焦核心技术、贴合本土需求的模型厂商有望实现突破,挖掘Coding市场红利。 长期模型优先,厂商差异化带来非对称竞争 LLM架构趋于收敛,26年关注①更高效的架构最大化算力利用/②后训练范式演进/③推理scaling LLM架构趋于收敛,各家建立scaling law,以扎实基模能力锁定AI竞赛席位。大模型的预训练是一个数据、算法、infra高度交织的复杂系统,每家模型厂商都需要从小的参数模型起步,逐步摸索并建立属于自身的scaling law,同步构建配套infra,筛选适配当前模型阶段的训练数据与任务数据集,持续调试,再逐步将模型参数规模迭代升级到下一个量级。无论是海外还是国内,LLM赛道已经过大浪淘沙的竞赛,底模能力扎实、持续保持技术迭代的厂商以此锁定下半场的竞赛席位,预训练是大模型竞赛的首要核心壁垒。 图表:大语言模型技术研发重点变化复盘LLM发展技术脉络,模型性能改进动能从架构设计转向后训练和推理阶段,26年重点关注后训练阶段挖掘RLVR向其他领域拓展、以及推理时的inference-time scaling等。模型性能改进的核心动能从架构设计转向后训练,大的架构路线上仍以Transformer为核心,伴随线性注意力、MoE等组件的精简和效率优化。后训练的范式持续演进,22年RLHF+PPO实现从GPT到ChatGPT的蜕变,25年RLVR+GRPO则让模型开始具备逻辑推理能力。展望26年,一方面关注更高效的架构出现,用更少的算力实现更高的建模性能;另一方面关注RLVR在更多通用领域的扩展、Inference-time Scaling(在推理阶段投入更多Token和计算资源)等进一步提升模型表现。 CapEX高投入仍具有确定性,海内外厂商增速趋势有分化 海内外模型厂商的CapEX投入对比来看(因厂商数据披露差异,OpenAI和Anthropic为大模型训练成本、智谱和MiniMax为研发投入): (1)海外vs国内,按照25-28年投入量级的3年CAGR增速来看,OpenAI和Anthropic增长最快为147%和96%。其次是国内独立模型厂商因基数较小,MiniMax和智谱的研发投入增速分别为59%和38%。传统互联网厂商看,海外谷歌、Meta以35%+的高增速,高于国内阿里的16%和腾讯的9%。 AI研发投入存在大量“试错成本”→算力、人才密度是决定能否拉开技术代差的核心因素 怎么理解CapEX投入量级的差距? 以24年OpenAI在计算资源上的分配为例,总支出70亿美元=研发50亿美元+推理20亿美元,其中研发50亿美元=45亿实验性运行(用于最佳参数、架构或训练策略等)+5亿模型最终训练运行(生成可发布、可使用的最终模型版本),探索性实验活动占研发计算资源的90%。 我们认为,对于AI前沿探索者来说,由于技术方向的不确定性和缺乏现成案例参考,需要投入大量的资源在不同架构、训练策略的探索上,通过研发试错和多技术路径并举,将巨额投入转化成技术代差式领先;对于AI追赶者来说,可以通过学习领先模型的技术、蒸馏等方式,规避大量无效投入,实现资源投入的最优效率形成后发优势。因此研发投入量级一定程度上体现了模型厂商的技术探索投入程度,在计算资源优先前提下,我们更看好具备极强经营现金流支撑的谷歌、Meta、阿里、腾讯、字节,以及头部模型厂商OpenAI、Anthropic在技术领先性上的高胜率。图表:2020~2028E模型厂商资本开支、模型训练研发投入、经营现金流情况 大模型竞争两阶段重复,大厂和独立AI模型厂商的相对优势在不同阶段会发生强弱变化 1、技术侧的范式突破更看好拥有更高CapEX投入和人才密度的厂商(大厂如谷歌、阿里,独立AI模型厂商如OpenAI),一旦技术范式突破,这类厂商的竞争优势将显著变强。 2、而在技术发展平台期,各家模型智力差距收窄,聚焦特定场景、组织敏捷性更强的独立AI模型厂商,能通过快速迭代harness,达到更高的执行有效率,拉高AI增量收入增长斜率,爆发性更强。 3、整体而言,传统互联网大厂和独立AI模型厂商更偏差异化竞争的状态。因传统互联网大厂更focus在C端大流量市场,提供的模型和服务场景需要有更强的普适性,独立AI模型厂商侧重于卖特定场景下token的有效率,从而形成AI新场景的用户生态。 Coding大爆发,看好国产模型跑通Anthropic模式 Coding的可验证性,CoT和RLVR推动编程能力形成自我迭代闭环 CoT和RLVR,助推客观可验证的模型编程能力提升。传统的RLHF因人类反馈标注带有主观偏见,而在编程领域代码是确定可被客观验证的,正确通过、失败则报错。CoT和RLVR允许模型在代码沙盒里进行成千上万的自我对弈和试错,而编程的可验证性能构建自动化闭环反馈,从而推动模型编程能力的自我进化,向生产力工具迭代。我们认为,Coding能力的提升,一方面来自于扎实的底模能力,另一方面垂类领域数据量、多模态理解能力、harness工程等都能为coding能力的提升助力,目前海外Anthropic显著领先,国内仍有黑马杀出可能性。 Anthropic:押注编程和B端市场,先发优势积累数据飞轮 Anthropic的优势在于,前瞻性的技术判断押注正确,战略极致聚焦,率先形成技术-用户生态闭环。Anthropic从成立初就押注编程和B2B,历次模型迭代重视编程和智能体能力优化,前瞻的技术选择(先发优势)+ harness层功能同步迭代(Claude团队在2026年2月1日至3月24日这52天内迭代了30多项harness层功能)更早拿到海量数据的正向反馈,比如用户的上文数据、被用户采纳的模型生成数据等,包括像cursor这类AI coding产品把Anthropic的Claude系列模型深度集成进IDE作为分发渠道,都使得Anthropic积累到大量数据,作用于模型能力迭代。 Anthropic:押注编程和B端市场,先发优势积累数据飞轮 Coding市场份额第一,5月ARR突破440亿美金,增长斜率陡峭。根据Menlo Ventures数据,Anthropic在LLM企业API市场份额逐年攀升,25年达到40%,Coding市场份额则达到54%。而随着模型智能体能力在25年末有显著突破,harness层同步迭代,帮助模型更好在实际生产力侧可靠、可控完成交付,Anthropic在4月ARR环比增长110亿美金达300亿美金的基础上,5月环比增长140亿美金达440亿美金。 Google:输入多模态和强推理,另辟蹊径提升编程能力 Google押注多模态的学习和训练,超强理解能力满足复杂编程需求。Google Gemini系列模型在编程能力上同样有优异表现(ArtificialAnalysis coding index排位第三),与Anthropic押注单一语言模态不同的是,Gemini系列从day1底层设计就是多模态模型,通过大量跨模态数据的学习和对齐,强大的基模推理能力给编程水平也带来质的飞跃。 多模态推理能力为代码和可视素材的对应提供支撑,结果上体现为最终呈现的前端视觉效果极强,通过差异化的视觉对应路线,弱化数据量级不足的短板。Coding能力训练的3个层级,从入门到中级到高级,分别是带注释的代码、项目代码、产品设计文档作为训练语料,多模态输入和推理能力对高级编程水平的训练助益显著,从纯代码的文本学习,到产品设计文档的可视化素材和代码的跨模态学习,基模推理能力作用下满足更高阶的编程需求。 26年预计是国产模型coding发展大年 图表:智谱历个模型发布情况智谱:类Anthropic战略聚焦编程,私有化部署服务经验提供科学的模型迭代方向。智谱的技术迭代始终以智力进化为核心,模型即产品,底模、推理增强、多模态能力结合,让通用模型拥有处理复杂任务的各项能力,我们理解更类似于智力提升+将harness层面功能封装在模型里,从而形成MaaS的强竞争力。从市场买单程度看,26年以来公司基模持续涨价,4月发布的GLM-5.1相较25年底的4.7涨价接近200%。公司表示26Q1API价格综合涨幅83%,使用量同涨400%,实现量价齐升。 26年预计是国产模型coding发展大年 DeepSeek:底模技术领先,注重模型数理推理能力迭代,认为Coding是大语言模型的重要分支,单独发布了多个Coding相关版本;同时在视觉语言模型上也有深厚布局。 26年预计是国产模型coding发展大年 Kimi:顶尖长上下文,底模能力扎实、VL和agent harness强 26年预计是国产模型coding发展大年 MiniMax:全模态布局稀缺卡位,视频、声音合成业内认可度高,大语言模型优势在于推理的低成本和高速。 当前Coding市场规模接近80亿美元 当前Coding市场规模在80亿美元左右。我们收集目前Coding赛道头部产品(包括Copilot类和Agentic类),加总得到目前Coding市场规模合计接近80亿美元,CR4达86%。 长期Coding市场规模测算:中美两国AI coding TAM达4000亿美元 从替代程序员和产品开发工程师人力成本的角度,远期AI coding市场T