您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [清程极智]:大模型 API 服务行业分析报告(2025) - 发现报告

大模型 API 服务行业分析报告(2025)

信息技术 2026-01-22 清程极智 肖峰
报告封面

目录 1.简介..........................................................................................................................12.模型..........................................................................................................................22.1调用量.............................................................................................................22.2服务商支持模型数量.....................................................................................32.3参数规模与价格.............................................................................................63.服务商......................................................................................................................93.1模型丰富度.....................................................................................................93.2价格、速度、上下文长度.............................................................................93.3接口兼容性...................................................................................................133.4接口质量.......................................................................................................143.5其他观察.......................................................................................................164.应用........................................................................................................................184.1场景分类.......................................................................................................184.2路由策略.......................................................................................................204.3智能路由提速降本效果................................................................................214.3时空分布.......................................................................................................224.4值得关注的应用...........................................................................................245.趋势与预测............................................................................................................266.总结与讨论............................................................................................................28附录一模型系列分类规则..............................................................................30附录二术语说明..............................................................................................31 1.简介 近年来,大语言模型(LLM)在内容生成、代码辅助、知识检索与复杂推理等场景中快速渗透,促使“模型能力”从单点算法指标走向可规模化交付的在线服务形态。 大模型API服务,是指将模型推理能力以标准化接口对外提供,使开发者能够在不自建训练与推理基础设施的前提下,按需调用并在业务系统中快速集成。进一步地,Model-as-a-Service(MaaS,模型即服务)强调以云端资源与工程化运维为支撑,提供可计量、可观测、可弹性伸缩的模型供给体系,将模型推理的成本、时延与稳定性纳入统一的服务质量(SLA)框架,从而显著降低企业应用门槛并加速规模化落地。 AIPing作为一站式AI评测与API服务智能路由平台,整合了中国境内的数十家算力提供商的数百个大模型API服务,并基于7×24小时的持续性能监测,为用户提供统一的API接入与智能路由能力。在模型供给快速扩张、服务商异质性显著、价格与性能竞争加剧的背景下,AIPing的价值在于通过专业评测、统一接口、弹性调度与数据驱动的性能治理,缓解“多模型、多服务商、多场景”带来的接入复杂度与运维不确定性,为应用侧提供更稳定的质量—成本最优解。 本文基于AIPing2025年第四季度的抽样数据,对开源大模型API服务市场的发展态势进行了系统分析。本文的三个关键结论如下: 1.DeepSeek与Qwen系列模型占据开源模型的API调用的主导地位; 2.API吞吐速率是用户选择服务商的重要因素,各服务商性能差距较大,全行业性能水平正在持续提升; 3.应用侧场景分化与模型偏好明显,通过智能路由可以有效提速降本。 下文将从模型、服务商与应用三个维度展开具体分析。 2.模型 我们将调用量最多的开源模型归为几个类别,分类原则是把各个日期小版本合并,Instruct和Thinking也合并,详见附录一。 2.1调用量 我们观察到,根据各开源模型请求数据,以总请求量排序,DeepSeek-V3/R1位居首位、其后为DeepSeek-V3.2,随后进入高调用梯队的是千问(Qwen)家族的多款模型,包括Qwen3-32B、Qwen2.5-72B与Qwen3-235B-A22B等。整体而言,头部模型呈现出“少数强势型号占据大盘、同一模型家族内多版本并存”的结构特征。如图1所示。 我们同时观察到,Qwen2.5-72B的调用量维持在较高水平,这一现象在“新模型加速迭代”的叙事下具有一定反直觉性。一个合理解释是,近期新发布模型在70B量级的稠密(dense)架构供给相对稀缺,而部分存量AI应用在工程实现、效果调优与线上回归体系上,曾围绕Qwen2.5-72B与Llama3-70B等稠密模型完成了较为充分的验证与沉淀。在此背景下,终端用户更倾向于继续采用已 被业务场景验证的“稳定基线”,而非立即迁移至理论能力更强但尚未完成工程化与业务闭环验证的新模型。换言之,模型选择不仅由模型能力上限决定,也受到迁移成本、线上风险与可验证性约束的共同塑造。 类似的“版本并存”现象亦体现在同一模型家族内部:尽管Qwen3-32B与QwQ-32B同属千问系列模型,参数规模接近且Qwen3-32B发布时间更晚,但从调用结构看,Qwen3-32B尚未完全替代早期的QwQ-32B。同样地,DeepSeek-V3.1与DeepSeek-V3.2的推出并未完全挤出DeepSeek-V3的存量份额。这表明,模型迭代并不必然带来“单调替换”,而更常呈现为多版本在不同任务偏好、推理成本与既有集成依赖下的分层共存。 2.2服务商支持模型数量 我们进一步统计了各开源模型被各个平台的支持程度,按模型所属系列进行聚合,如图2所示。 从图2中可见,DeepSeek是最受服务商欢迎的模型系列。aiping.cn下共收录29家服务商,头部的模型DeepSeek-V3/R1、DeepSeek-V3.1均有23家服务商支持。如果合并所有支持DeepSeek的服务商,共计24家服务商支持至少一种Deepseek模型。其中的差异是因为DeepSeek官方目前仅支持其最新的模型DeepSeek-V3.2,而不再提供DeepSeek-V3.1的服务。 未支持DeepSeek模型系列的5家服务商中,一家为图像/音视频类服务商(可灵AI),一家仅提供蒸馏版模型,如DeepSeek-R1-Distill-Qwen-7B等模型(SCNet),3家为仅提供自研模型的独立模型厂商。 同时,DeepSeek系列和Qwen系列各个版本的模型也有不同的覆盖度,如图3所示。 DeepSeek子模型的供给覆盖呈现明显分层:覆盖面最广的子类为DeepSeek‑V3.1(22家)与DeepSeek‑R1‑0528(21家)。这通常意味着这些子版本 具有更高的生态可移植性和更强的市场可预期性,从而更容易被中立服务商优先接入。相比之下,DeepSeek‑V3(14家)与DeepSeek‑V3.1‑Terminus(15家)的覆盖率更低,反映出“旧版本/特定分支版本”在多服务商生态中更易受到生命周期与产品定位的双重约束。 特别的,根据我们与模型API服务商之间的交流,服务商上架或下架具体模型会考虑到客户需求、整体调用趋势、服务成本等综合因素,但总体上还是以客户为导向,这一结论在下文其他章节将得到再次验证。 我们观察到,MaaS服务商对Qwen系列模型的接入呈现出稳定而一致的覆盖梯度:基础模型(Base)通常获得最广泛的供给覆盖,其次为指令模型(Instruct),而强调显式推理过程的Thinking版本覆盖最为有限。例如,在Qwen3-235B-A22B系列中,Base、Instruct-2507与Thinking-2507分别被19、13与10家服务商接入;在Qwen3-30B-A3B系列中亦呈现出类似的递减趋势。但是,在实际使用层面,用户往往优先选择Instruct或Thinking模型以满足明确任务目标或复杂推理需求。这一事实揭示了一种结构性的供需错位:供给侧优先扩散“最易部署的通用能力”,而需求侧则集中于“最具任务效用的专用能力”。这种错位提示MaaS平台在模型细分上架时需要超越“可得性优先”的逻辑,尽管总体来看服务商提供服务的模型和用户需求接近匹配,但是在较为细节的部分仍然存在着供需错位,这些细节也同样值得服务商关注。 结合平台调用量,我们观察到QwQ‑32B的供给覆盖虽然达到1