AI智能总结
请务必阅读正文之后的免责声明及其项下所有内容摘要Ø模型层:能力迅速提升,开源推动成本降低。近年来全球AI持续发展,大模型在知识问答、数学、编程等能力上达到新高度,多种任务上表现超过人类水平,在各领域的可用性及准确度快速提升。Scaling Law目前正在从预训练扩展到后训练和推理阶段,随着大模型行业发展逐步成熟,厂商之间开始出现明显的价格竞争与市场份额抢占,大模型的推理成本有了显著下降。同时,得益于Llama 3.1以及DeepSeek R1等高性能开源模型的推出,开源与闭源之间模型差异快速缩小。Ø智能体:技术逐步完善,新产品密集发布。人工智能体是一种能够感知环境、进行决策和执行动作的智能实体。通过支持添加MCP,Agent可以访问和利用各种外部工具和服务,丰富了Agent的功能范围。Google正式发布A2A协议,整合不同领域Agent的优势,完成跨系统复杂任务。随着应用效果提高,海内外智能体产品密集发布。Ø商业化:用量持续增长,国产模型表现亮眼。中国与美国顶尖模型之间的差距正在迅速缩小,国产模型依靠开源走出自身生态。当前全球AI模型流量持续上涨,为应用侧发展提供基础。数据显示,各家云厂商推理芯片租赁价格均有不同程度上涨,API调用量亦呈现快速增长趋势。ØC端应用:借助AI赋能业务,重塑流量入口。AI应用有望重塑流量入口,各个厂商积极卡位。传统互联网巨头在AI领域具备先发优势,可利用专有数据和用户参与度将AI功能集成到现有的应用当中,在AI应用渗透领域具备先发优势。当前,编程成为人机协同的主要领域,办公类任务AI占比较低。ØB端应用:开源提升投入意愿,推动企业上云。开发工具和生态的繁荣大幅降低行业应用门槛,加速产业智能化落地进程。AI技术和解决方案已深入到传媒、医疗、机器人、制造等多个行业,通过创新产品和服务、优化生产流程来推动行业的智能化转型。随着智能化推进,AI应用有望进一步提升企业上云意愿。Ø风险提示:AI应用落地不及预期、市场需求不及预期、行业竞争加剧、宏观经济波动、新技术研发不及预等。 请务必阅读正文之后的免责声明及其项下所有内容目录 模型层:能力迅速提升,开源推动成本降低01商业化:用量持续增长,国产模型表现亮眼03风险提示06智能体:技术逐步完善,新产品密集发布02C端应用:借助AI赋能业务,重塑流量入口04B端应用:开源提升投入意愿,推动企业上云05 请务必阅读正文之后的免责声明及其项下所有内容AI技术快速发展,推动模型能力持续提升•近年来全球AI持续发展,大模型在知识问答、数学、编程等能力上达到新高度,多种任务上表现超过人类水平,在各领域的可用性及准确度快速提升。从模型技术来看:1)当前模型主流架构逐步转向MoE,通过将输入Token分配给不同的专家模型,让模型在处理复杂任务时展现出更强的能力,同时也能有效降低训练、推理所需的资源,DeepSeek-V3、Qwen3、Llama 4等模型均采用MoE架构取得了低成本的高性能表现;2)模型的多模态能力显著增强,通过跨模态对齐、异构数据融合等技术,模型能够处理图像、视频、音频等多种类型的数据,从而丰富了模型的应用场景,GPT-4o、Gemini 2.5 Pro等领先模型均采用多模态技术;3)模型开始采用思维链技术,将复杂问题逐步分解为多个简单步骤,并按照步骤推导最终答案,通过分步推理的方法,模型的回答不仅更加精确可靠,其思考过程也变得清晰可懂。2024年9月,OpenAI发布o1模型,首次将思维链技术运用在底层模型当中,大幅提高了模型在测试中的表现,后续DeepSeek-R1等模型均采用思维链技术,全球模型进入推理时代。除上述方面外,模型量化、超长上下文窗口、多种RAG变体、偏好微调等技术的发展亦共同推动了模型可用性的进步,为AI在垂直领域的应用奠定了基础。图:AI在多种能力测试中超越人类水平资料来源:Stanford University-《Artificial Intelligence Index Report 2025》-2025年-P93,国信证券经济研究所整理 图:CoT与MCoT的不同思维链范式资料来源:Yaoting Wang等-《Multimodal Chain-of-Thought Reasoning: AComprehensive Survey》-arXiv-2025年-P8,国信证券经济研究所整理 请务必阅读正文之后的免责声明及其项下所有内容图:全球新发模型数量同比下降资料来源:Stanford University-《Artificial Intelligence Index Report 2025》-2025年-P46,国信证券经济研究所整理模型训练竞赛趋缓,Scaling Law向推理侧迁移•据斯坦福大学数据,受训练规模不断增加、AI技术复杂性提升以及开发新模型方法面临更大挑战等因素影响,各地区2024年发布的模型总数同比均有所下降。美国为2024年发布知名模型最多的地区,数量达40个,较2023年的61个同比下降34.43%。分机构看,2024年贡献知名模型最多的机构分别是OpenAI(7个)、谷歌(7个)和阿里巴巴(4个)。受MoE等新技术推动,2024年模型的参数数量保持快速上升趋势,规模扩大仍是模型性能提升的重要方式。•Scaling Law目前正在从预训练扩展到后训练和推理阶段,基于强化学习、思维链等技术在后训练和推理阶段投入更多的算力,可以大幅提升大模型的思考能力。同时,随着强化学习时间和推理思考时间的增长,模型性能也将得到显著提升。据前OpenAI应用研究负责人Lilian Weng数据,s1实验中,通过强制延长思维链推理路径长度,以Token衡量的平均思维时间与下游评估准确率之间展现出明显的正相关关系。据上海交通大学研究表明,通过延长AI的推理时间,仅需500个样本训练,就能让模型在医疗诊断准确率上提升6%-11%,达到专业医生的诊断水准。随着模型推理能力快速提升,当前AI在各领域可用性、准确度不断提高,商业化前景被逐步打开。图:模型在医学领域的准确性随思考时间增加而提升资料来源:Zhongzhen Huang等-《O1 Replication Journey–Part 3: Inference-time Scaling forMedical Reasoning》-arXiv-2025年-P6,国信证券经济研究所整理 请务必阅读正文之后的免责声明及其项下所有内容•随着大模型行业发展逐步成熟,厂商之间开始出现明显的价格竞争与市场份额抢占。据OpenAI和谷歌官网数据,2024年双方主力模型API调用价格均出现大幅下降,其中GPT-4o输入API调用价格为2.5美元/百万Tokens(下降50%),输出API调用价格为10美元/百万Tokens(下降33%);谷歌Gemini 1.5 Pro输入API调用价格为2.5美元/百万Tokens(下降64%,超过128k),Gemini 1.5 Pro输出API调用价格为10美元/百万Tokens(下降52%,超过128k)。国内方面,千问、Kimi、腾讯等主力模型价格均有不同程度下降,据千问官网数据,Qwen-Max输入API调用价格在2025年下降至2.5元/百万Tokens(下降88%),输出API调用价格下降至9.6元/百万Tokens(下降84%)大模型API调用价格下降利好AI应用厂商成本下降,进而传导至终端AI应用消费者费用的下降。•据斯坦福大学数据,在保持AI性能不变的前提下,近年来大模型的推理成本有了显著下降。例如,在流行的MMLU基准测试中,达到GPT-3.5水平(得分64.8)的AI模型推理成本,从2022年11月的每百万Tokens 20美元,大幅下降至2024年10月的仅0.07美元(对应Gemini-1.5-Flash-8B),这意味着在大约1.5年的时间里,推理成本下降了超过280倍。在更具挑战性的基准GPQA上,对于性能评分超过50%的模型,其推理成本从2024年5月的每百万Tokens 15美元,下降到了2024年12月的0.12美元(对应Phi-4)。据Epoch AI的估算,根据推理任务的不同,大模型的推理成本每年都在以9到900倍的速度下降。图:国内外主力模型API调用价格下降资料来源:公司官网,国信证券经济研究所整理模型推理成本显著下滑,利好应用端成本下降图:全球大模型推理成本快速下降资料来源:Stanford University-《Artificial Intelligence Index Report 2025》-2025年-P64,国信证券经济研究所整理 请务必阅读正文之后的免责声明及其项下所有内容开源与闭源模型差距缩小,推动AI应用落地•得益于Meta发布的Llama 3.1以及DeepSeek V3、R1等高性能开源模型的推出,开源与闭源之间模型差异快速缩小。据斯坦福大学数据,2023年闭源与开源大模型之间存在明显的性能差距,在Chatbot Arena排行榜中,2024年1月初领先的闭源模型比顶级开源模型高出8.0%,而2025年2月差距缩小至1.7%,类似的趋势也出现在其他问答类基准测试中。2023年闭源模型几乎在所有主要基准测试上优于开源模型,但到2024年这种差距显著缩小,例如,2023年底闭源模型在MMLU基准上领先开源模型15.9个百分点,而到2024年底这一差异缩小至仅0.1个百分点。•开源模型允许开发者直接访问、修改和优化模型代码,降低了AI技术的使用门槛,用户可根据自身需求进行定制化开发,使模型更容易适配金融、医疗等垂直行业需求,加速大模型应用的普及。同时,用户无需支付闭源模型调用费用,使用大模型的成本显著降低,刺激AI应用在付费意愿较低的用户中渗透。随着开源模型与闭源模型之间的差距逐步缩小,下游企业可直接在企业中接入相关模型,并获得与顶尖闭源模型等同的应用表现,极大推动AI在各个垂类领域的应用。例如,通过微调Llama模型,AT&T在客户服务搜索响应上取得了近33%的提升;埃森哲基于Llama 3.1构建了用于ESG报告的定制大模型;北京中医药大学深圳医院部署DeepSeek赋能医院运营管理等。图:开源与闭源模型之间差距快速缩小资料来源:Stanford University-《Artificial Intelligence Index Report 2025》-2025年-P95,国信证券经济研究所整理 请务必阅读正文之后的免责声明及其项下所有内容目录 模型层:能力迅速提升,开源推动成本降低01商业化:用量持续增长,国产模型表现亮眼03风险提示06智能体:技术逐步完善,新产品密集发布02C端应用:借助AI赋能业务,重塑流量入口04B端应用:开源提升投入意愿,推动企业上云05 请务必阅读正文之后的免责声明及其项下所有内容图:AI Agent打开垂直行业应用入口资料来源:头豹研究院,Frost & Sullivan,国信证券经济研究所整理AI应用快速迭代,人机协同从Copilot转向Agent•AI Agent(人工智能体)是一种能够感知环境、进行决策和执行动作的智能实体。不同于传统的人工智能,AI Agent具备通过独立思考、调用工具去逐步完成给定目标的能力。AI Agent和传统大模型的区别在于,大模型与人类之间的交互是基于prompt实现的,用户prompt是否清晰明确会影响大模型回答的效果,而AI Agent的工作仅需给定一个目标,它就能够针对目标独立思考并做出行动。•基于大模型的Agent不仅可以让每个人都有增强能力的专属智能助理,还将改变人类与AI协同的模式。随着大模型的发展,人类与模型的协同方式从最初的聊天机器人转变为Copilot,并逐步向Agent探索。Agent的落地将给AI应用带来颠覆性变化,打开AI在垂直行业渗透的入口。随着自然语言处理、机器学习和生成式AI的进步,AI Agent的多功能性和部署量将急剧增长。图:人类与AI交互方式转变资料来源:头