您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[西南证券]:AI专题:Agent:智能体基建厚积薄发,商业化应用曙光乍现 - 发现报告

AI专题:Agent:智能体基建厚积薄发,商业化应用曙光乍现

2025-04-24王湘杰西南证券程***
AI智能总结
查看更多
AI专题:Agent:智能体基建厚积薄发,商业化应用曙光乍现

西南证券研究院海外研究团队2025年4月 核心观点 AI发展阶段从推理者走向智能体,模型底座智能水平提升。目前,AI发展水平正从推理者向智能体Agent演进,AI产品逐步能够理解目标、具备外部记忆和推理能力,相关智能体产业链正经历从模型能力提升到应用商业化的系统性跃迁。AI大模型能力由预训练、后训练、测试时三条扩展曲线推进,其中,预训练奠定模型内部智能上限,后训练及测试时扩展分别释放模型在特定领域和推理方面的潜力,当前基础模型迭代放缓,逐步从训练扩展向测试时扩展转变,主次曲线迎来切换,从而对大规模集群依赖程度下降、推理算力需求攀升,更加聚焦AI产品的商业化能力和生态建设。 中间工具厚积薄发,开发者生态积极构建。在中间层,智能体生态所需的通信协议与开发工具快速涌现,AnthropicMCP协议、谷歌A2A协议等代表性技术正助力构建智能体新型操作系统,为模型与工具、智能体与智 能体之间建立 统一的交互接 口。其中,2025年3月MCP Server发现平台Smithery的服务器创建数量较2月实现3倍增长,A2A已得到50多家合作伙伴的支持,开发者生态加速繁荣。开发工具与底层框架的标准化,可类比为互联网时代移动手机的USB-C接口,或者类比为用于App和操作系统之间通信的AndroidAPI,将加速AI智能体商业化进程。 初代产品创收加速,商业化应用曙光乍现。在应用层,智能体应用分为跨行业通用产品和垂类专业产品,前者发展相对成熟,部分产品已开始规模化应用,后者商业化起步略晚,但有望成为B端数智化转型的重要抓手。目前,智能体作为交互式AI产品开始快速落地,初代产品Cursor、Glean等已实现上亿美金年经常性收入(ARR),展现出较高成的长潜力,并出现基于实际交付成果、任务完成率等指标的新收费模式。整体来看,AI智能体产品正形成“底层模型能力升级+中间工具繁荣+商业场景落地”的基础设施与应用协同的演进路径,未来AI智能体应用还需进一步提升规划能力、具备更好的记忆、拥有更强的多模态理解能力,释放变现潜力。 相关标的:1)推理算力:英伟达、博通;2)中间工具和数据层:谷歌、Snowflake;3)下游应用:Salesforce、SAP、Shopify;4)云服务:亚马逊、微软、谷歌。 风险提示:AI技术进展不及预期;AI商业化进展不及预期;投资回报不及预期等风险。 目录 一、AI发展阶段:从推理者转向智能体,开始学会调用工具 二、Agent模型层:底座智能水平提升,推理能力成为核心 三、Agent中间层:中间工具厚积薄发,开发者生态积极构建 四、Agent应用层:初代产品创收加速,商业化应用曙光乍现 五、相关标的及风险提示 1.1 AI等级:AI发展水平划为五大等级,当前正从推理者转向智能体 模型多维能力持续提升,AI从推理者转向智能体。根据OpenAI对AI发展的理解和定义,AI水平可分为五大等级:一是聊天机器人(Chatbot),能够用自然语言进行对话;二是推理者,基于推理模型,解决人类级别的智力问题;三是智能体(Agent),能够代表用户采取行动;四是创新者;五是组织。过去,在ChatGPT等聊天机器人产品推出时,大模型通常采取一次性推理,用户与聊天机器人的交互形式呈现为简单的一问一答。而在推理模型的不断发展之下,AI模型逐渐能够与自己对话,实现内部思考,具备推理能力。当前,随着大模型在交互/认知/泛化/自主等多维度能力持续提升,AI正从推理者转向智能体,逐步具备采取行动及处理任务的能力,智能体产品加速推进。 1.1 AI等级:AI发展水平划为五大等级,当前正从推理者转向智能体 AI产品目前处于中间过渡形态,智能体有望革新交互效率。过去,传统聊天机器人只能执行明确指令,用户需要逐次下达任务指令,AI模型根据一个指令进行一个动作;当前,中间形态的AI产品已初步具备目标理解和推理能力,可以根据用户的模糊需求主动采取一部分行动,但仍然需要依赖用户反馈进行下一步操作;未来,真正的AI智能体将能够根据最终目标自主规划任务步骤、调用多种工具、识别错误并给出修正策略,具备完成任务的能力。 1.2 Agent等级:初阶能够使用工具,高阶可自主完成长时任务 智能体(Agent)=大模型(LLM)+记忆(Memory)+主动规划(Planning)+工具使用(Tooluse)。 大模型:在基于LLM的智能体中,LLM充当智能体的大脑。主动规划:可以将大型任务分解为子任务,并规划执行任务的流程,同时能够对任务执行的过程进行思考和反思,从而决定是继续执行任务,或判断任务完结并终止运行。记忆:短期记忆指在执行任务的过程中的上下文,会在子任务的执行过程产生和暂存,在任务完结后被清空;长期记忆即可以长时间保留的信息,一般指外部知识库,可用向量数据库存储或检索。工具使用:为智能体配备工具API,如计算器/搜索工具/代码执行器/数据库查询工具等,从而与物理世界实现交互,解决实际问题。 1.2 Agent等级:初阶能够使用工具,高阶可自主完成长时任务 自主决策能力是基础,解决长时任务是关键。根据智能体“推理+记忆+使用工具+规划”的四大核心能力来看,截至目前,聊天机器人产品逐步具备推理能力,副驾驶和工具型助手可以建立外部记忆,但仍然不具备使用工具和自主规划的能力,只能根据用户指令按步骤执行,不属于能够自主决策的智能体。根据CBInsights研究,具备一定自主决策能力的智能体可分为两大等级。1)初级Agent:AI模型可以通过编排组合,把重复性高、需要一定灵活性的任务从人替换成数字员工,实现任务的自动化,在该阶段,Agent尚不具备完全开放的决策空间,自主决策范围主要局限于任务流程和有限选项之中,决策行为将受到安全条件、访问权限等限制,是有限决策的智能体。2)高级Agent:智能体不只是LLMcalling的组合,而是能够更自主、更主动地规划,完成多步骤、长时任务,可以在多个选项之间做出自主选择,不需要人工指示,实现高度自治。 1.3 AI产业链:AI Infra奏响主旋律,AI Agent拉开新画布 AI Infra:核心算力、半导体产业链、硬件设备、电力能源为AI大模型的训练与推理奠定硬件基础。AIAgent:B端软件、C端应用、端侧AI及具身智能等环节在Agent应用上蓄势待发。 1.3 Agent产业链:智能体基建厚积薄发,商业化应用曙光乍现 模型层:Agent本质是大模型能力的工程化载体,大模型智能水平仍是打造Agent的底层支撑,未来依旧需要通过预训练、后训练和测试时计算进行扩展。 中间层:Agent产业链的中间层工具正加速构建,数据库、身份治理、通信协作等成为重要议题。应用层:Agent应用形态随着以上底层大模型和中间原生基础设施的发展逐步从构想更加贴近现实。 AI Agent产业链示意图 模型层 1.3 Agent产业链:智能体基建厚积薄发,商业化应用曙光乍现 基础设施加速发展推动新应用诞生,新应用积极引导基础设施下一步健全方向。智能体生态正在经历波浪式发展进程,每一波创新应用的诞生,都会带动基础设施的迭代升级,底层技术的进步又会进一步催生出更智能的应用,如OpenAI的GPT系列(从GPT-1到GPT-4)和o系列(从o1到o3)模型、Anthropic的Claude模型(Sonnet-3迭代至3.7)、谷歌Gemini模型(从1.5Pro迭代至2.5Pro)。智能体中间层则陆续出现LangChain、ToolCalling、MCP和A2A等工具;应用层相继出现Cursor、ClaudeDesktop、OpenAIOperator等。新应用对基础设施提出更复杂的需求,基础设施的进步又将反哺新的智能体应用,两者相互塑造、共同演进,加速AI的商业化落地。 目录 一、AI发展阶段:从推理者转向智能体,开始学会调用工具 二、Agent模型层:底座智能水平提升,推理能力成为核心 三、Agent中间层:中间工具厚积薄发,开发者生态积极构建 四、Agent应用层:初代产品加速创收,商业化应用曙光乍现 五、相关标的及风险提示 2.1 AI模型扩展法则:扩展法则迎来范式转变,主次扩展曲线逐步切换 扩展法则迎来范式转变,推理模型迭代节奏加速。从OpenAI旗下AI模型迭代进程来看: 2018年6月至2023年3月——预训练扩展阶段:OpenAI大模型预训练快速推进,在五年内从GPT-1迭代至GPT-4模型,模型基础能力2023年3月之后,预训练扩展进程逐渐放缓,截至目前仍未推出下一代预训练大模型GPT-5。 2023年下半年至2024年5月——后训练扩展阶段:基于微调技术开始打磨多模态、上下文等能力,提升特定指标性能。 2024年9月至今——测试时扩展阶段:2024年9月OpenAI-o1模型预览版亮相,标志正式进入推理模型时代;2025年4月17日,OpenAI推出完整版o3模型和o4-mini模型,截至目前,半年内已迭代多次,测试时扩展正加速发展。 2.1 AI模型扩展法则:扩展法则迎来范式转变,主次扩展曲线逐步切换 规模法则从训练阶段延伸至推理阶段,推动计算需求持续提升。预训练法则和后训练法则均与模型的训练阶段有关,而测试时扩展法则与推理阶段有关,深度推理有望对算力需求进一步增加。 ①预训练扩展法则(Pre-trainingScaling Law):关注计算资源、模型大小和训练数据三大要素,当三要素同时增加时,模型性能将同步提升,打造优质基座模型。 ②后训练扩展法则(Post-trainingScalingLaw):关注在预训练完成后对模型的进一步优化和微调,可以针对特定任务进行改进,从而提升模型在特定领域的性能,有助于打造垂类模型。 ③测试时扩展法则(Test-timeScalingLaw):针对在模型的实际推理或应用中,根据问题的复杂程度实时分配计算资源,面对复杂问题能够进行分步骤、多阶段推理,在多个解法中寻求最优解。 2.1 AI模型扩展法则:扩展法则迎来范式转变,主次扩展曲线逐步切换 模型性能提升路径持续探索,主次增长曲线发生转变。2020年1月和2022年3月,OpenAI和谷歌先后发布论文《ScalingLawsforNeuralLanguageModels》和《TrainingCompute-OptimalLargeLanguageModels》,两者认为预训练阶段的扩展法则是提升大语言模型性能的有效路径。2024年8月谷歌发表论文《ScalingLLMTest-TimeComputeOptimallycanbeMoreEffectivethanScalingModelParameters》,提出在测试时对大语言模型的计算进行最优扩展,可能比扩展模型参数来提升模型性能更有效。根据英伟达CES大会信息,除预训练和后训练扩展法则之外,测试时扩展法则同样推动算力需求持续增长,以OpenAI-o系列模型为代表的推理模型通过测试时计算,带动推理算力高增,ScalingLaw持续有效。随着模型性能提升曲线从训练扩展转向推理扩展,投资方向也随之向推理侧转变。 2.2预训练扩展:三要素影响模型性能,高质量数据成为瓶颈 算力决定Transformer模型性能上限,模型参数与训练数据比例影响模型最佳性能。根据OpenAI和Google相关研究,模型性能随着模型参数大小、训练数据集大小、计算量的增加而提高。对于基于Transformer架构的大语言模型,模型性能三要素的关系为C≈6N*D,其中,N代表模型参数规模,D代表预训练数据集大小;C代表预训练算力资源。大语言模型若要获得最佳性能,需同时扩展三大要素。当其中一个因素受限时,模型的智能表现可以随着另外两个因素的增加而变好,但边际效应会逐步递减。在给定预训练计算量的情况下,可以确定最佳的参数量和数据集之比,从而确定模型的最佳能力。因此,在总计算量越多