您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:国泰海通电子CPU在Agent时代的重大产业逻辑更新20260120 - 发现报告

国泰海通电子CPU在Agent时代的重大产业逻辑更新20260120

2026-01-20未知机构浮***
AI智能总结
查看更多
国泰海通电子CPU在Agent时代的重大产业逻辑更新20260120

占用越多;2、用于沙箱执行的CPU并非与GPU封装在一起的AI CPU,而是独立于AI 服务器的通用服务器,用量与Agent用户数相关,并不与GPU个数强绑定;3、海内外CSP已经开始增大CPU采购用于Agent沙箱,所以才出现涨价。对于CPU增量的测算表:乐观测算,2027年AI服务器和Agent驱动的服务器CPU市场空间为723亿美金,需求将远远大于CPU现有的市场规模 正文: 首先,要看多CPU,需要认可26/27年是Agent元年的主要前提,在这个前提下传统模式的agent架构是:Agent与执行环境是割裂的。Agent主要负责意图识别,执行主要依赖调用写死的接口(Function Calling、MCP协议等)后面形成了一个新的流派,当agent执行的时候,它不像OAI一样去操作用户的PC ,而是创建了一个云端虚拟机,一个沙箱环境,让agent在沙箱环境中闭环去执行任务操作 举个例子,你的任务是把一堆简历做一个数据分析,现在的步骤是: 第一步,创造一个沙箱环境 第二步,找到网盘地址,下载第三步,找到那个zip,解压压缩包,找到一堆简历第四步,做一个分析数据,生成一个报表第五步,任务完成后,销毁沙箱环境(资源释放) 2025年下旬到26年,这种模式大幅铺开,Claude skills,豆包,包括智谱都在用,Agent的执行层(虚拟机、运行代码、文件处理)高度依赖CPU,所以CPU+虚拟机这套体系成为主流,CPU的需求增加。 1、Agent需要CPU创建大量的沙箱环境用于执行任务,任务越长、越重,对CPU占用越多;2、用于沙箱执行的CPU并非与GPU封装在一起的AI CPU,而是独立于AI 服务器的通用服务器,用量与Agent用户数相关,并不与GPU个数强绑定;3、海内外CSP已经开始增大CPU采购用于Agent沙箱,所以才出现涨价。对于CPU增量的测算表:乐观测算,2027年AI服务器和Agent驱动的服务器CPU市场空间为723亿美金,需求将远远大于CPU现有的市场规模 正文: 首先,要看多CPU,需要认可26/27年是Agent元年的主要前提,在这个前提下传统模式的agent架构是:Agent与执行环境是割裂的。Agent主要负责意图识别,执行主要依赖调用写死的接口(Function Calling、MCP协议等)后面形成了一个新的流派,当agent执行的时候,它不像OAI一样去操作用户的PC ,而是创建了一个云端虚拟机,一个沙箱环境,让agent在沙箱环境中闭环去执行任务操作 举个例子,你的任务是把一堆简历做一个数据分析,现在的步骤是: 第一步,创造一个沙箱环境 第二步,找到网盘地址,下载 第三步,找到那个zip,解压压缩包,找到一堆简历 第四步,做一个分析数据,生成一个报表 第五步,任务完成后,销毁沙箱环境(资源释放) 2025年下旬到26年,这种模式大幅铺开,Claude skills,豆包,包括智谱都在用,Agent的执行层(虚拟机、运行代码、文件处理)高度依赖CPU,所以CPU+虚拟机这套体系成为主流,CPU的需求增加。 这里面,还是要区分一下“API调用型”和“沙箱执行型”两种Agent任务模式API调用型(无需沙箱):典型场景:点外卖(阿里/美团生态)、电商购物、订酒店、网页开发、生成Excel、腾讯元宝调用小程序。 Agent仅充当“分发者”和“翻译官”。它理解用户意图后,直接调用现成的底层API接口。不需要创建独立的虚拟沙箱环境,直接复用现有的业务服务器(如外卖平台的服务器)。 沙箱型: 典型场景:复杂文件处理(网盘下载->解压->数据分析)、PPT制作(缺乏标准API)、通用生产力工作。 任务中间涉及文件操作、渲染或复杂的非标准化步骤,必须有一个独立的“操作空间”来承载这些动作。必须为每个任务创建独立的虚拟环境(沙箱),消耗额外的CPU和内存。 在明确CPU的用量在往上走后,提供三个观点: 第一个观点:虽然技术优化能带来约20倍的效率提升,但面对未来Agent需求20倍、200倍甚至2000倍的爆发式增长,CPU的总体需求仍将大幅上升 原来的CPU是不做优化的,因为够用, 一个上述任务,现在大概是创建0.5核1G空间,平均一个简单任务是创建1-2个沙箱环境,每个用户创造几十个沙箱环境,这么一看似乎CPU似乎现在就该 非常非常缺,但实则短期不然。 现在给一个用户下发的沙箱环境,0.5核里面实际的CPU利用率是非常低的,只有5%,原因是上层Agent模型无法预知任务的具体负载(不知道文件多大、计算多复杂),为了保底,系统只能“无脑”给每个任务分配固定的资源配额(如0.5核+1G内存),实际上,大部分任务(如下载、简单解压)对CPU的消耗极低。分配了0.5核,可能实际连0.05核都没用到,剩下90%以上都是浪费。 优化的做法是将计算能力(CPU核)与存储空间(内存/硬盘)解耦,不再分配固定的“虚拟核”,而是动态分配“线程算力”,将线程算力池化。Agent需要计算时才给算力,不计算时不占用CPU资源,这样或许利用率能到70%-80%,那是十几倍的提升空间,最后可能一个16核管理1000个沙箱环境这是完全可以优化 做得到的 尽管供给端的优化能带来20倍的释放,但需求端(Agent大规模普及带来的并发量)的增速大概率是指数级的(200倍、2000倍)。优化的速度跑不赢需求的爆发,因此长期来看,CPU市场依然面临巨大的增长需求 第二个观点:Agent时代的高并发(在线时长久)是常态,虽然“线程池技术”能解决大部分碎片化任务的资源浪费,但一旦遇到“持续重计算”的复杂任务,CPU依然会被塞满,无法通过技巧绕过物理瓶颈 传统Chatbot,用户问一句答一句,用完即走。并发比极低,仅为1%。但是,Agent (如Coding类):用户挂着软件写代码(如Cursor/Claude Code),一开就是数小时。并发比飙升至30%-40%甚至更高。这就带来一个问题,如果某个任务一直霸占着CPU时间片不释放,CPU就无法切换去服务别的沙箱。 所以,容易优化的任务,比如简单的I/O任务、短暂的脚本执行。这类任务对CPU的占用是碎片化的,容易被调度。但类似打游戏、看高清视频、P图(Photoshop)、渲染这类持续高负载,或者长时间推理,这就是难被优化的,就是CPU杀手 第三个观点:随着任务链条变长(Long-context/长程推理),CPU的工作时长占比将大幅提升,甚至可能超过GPU 不同于传统对话,Agent完成一个任务(如写报告)的流程是CPU和GPU交 替配合的: 第一步(GPU主导):用户下达指令,GPU进行推理,生成一个详细的To-Do List(任务规划/拆解)。规划一旦完成,GPU暂停 第二步(CPU主导):CPU根据To-Do List开始干脏活累活(如控制浏览器、搜索网页、下载文件、寻找信息) 如果评估不合格:CPU继续干活 如果评估合格:进入下一个子任务。 第四步(GPU收尾):所有任务完成后,GPU进行最终的总结和报告生成。 这中间CPU承担了漫长的执行过程,往后思考和执行的链条越长(任务越复杂),CPU在整个过程中运行的时间占比就越高,GPU的相对占比反而越少 上述是云侧,在端侧时,消耗的是端侧算力。比如用户想喝咖啡,千问运行大模型,进行大数据分析和意图识别。判断你是谁、在哪里、喜欢什么口味,然后决定应该给这个用户推荐什么咖啡,给一个指令到手机,至于后续的小程序的加载、页面渲染、你手指滑动的流畅度、动画效果,全部消耗的是手机自己的芯片算力,这一步不需要云端创建一个“虚拟手机”来替你打开小程序,而是利用你手里现成的硬件 从硬件的角度,这个agent逻辑对于CPU的用量是增量,并不是动用AI服务器里面的CPU部分,因为AI服务器的CPU只负责训练的时候去计算tokens,Agent逻辑如果成立,增加的CPU是纯CPU服务器,增减相当灵活 联系人:舒迪/李奇/段笑南