产业趋势:AI推理架构正从“单次推理”转向“多步编排”,CPU重回AI推理系统的核心地位。传统“用户输入-推理-输出”的单次路径模式,在引入决策编排器和外部工具后,变为“感知-规划-工具调用-再次推理”的循环过程。尽管LLM推理主要在GPU上运行,但工具调度等任务主要依赖CPU,现有研究对此关注不足,导致系统效率低下,工具处理(CPU)在端到端延迟中占比高达90.6%。高并发环境下(Batch Size 128),CPU延迟暴涨超2倍(从2.9s涨至6.3s),因进程数超过物理核心数引发严重上下文切换开销,现有CPU资源迅速耗尽。
订单验证:AMD与Intel服务器CPU供给趋紧,订单接近售罄。AMD 2026年服务器CPU几乎预订一空,预计业务增长≥50%,AI相关收入或达140–150亿美元;英特尔数据中心CPU亦接近售罄,具备提价能力。Agent云端沙盒调用量飙升带动云实例业务增长,进一步加剧CPU供需紧张。英伟达Blackwell的ARM架构CPU算力受限,Rubin项目大幅提升CPU核心数和超线程,并计划开放英特尔x86CPU作为NVL72互联机柜。
投资建议:重视CPU行业beta,强烈看好龙芯中科。