
报告背景 当前,人工智能正朝着AGI的方向迈进。伴随技术突破与产业应用的深度融合,人工智能进入全新发展阶段。2025年被视为“智能体元年”,AI Agent已成为驱动产业变革的核心力量。智能体通过自主任务规划、动态决策与闭环执行,实现从被动响应指令到主动解决复杂问题的跨越。与此同时,各类AI硬件迎来新一轮迭代升级,从轻量化AI眼镜到便携AI录音卡片,硬件设备在便携性与场景适配性方面不断突破。“多模态模型”进一步打破技术边界,实现语言理解、视觉识别、音频处理等核心能力的深度融合。“世界模型”扮演更为重要的角色,基于内在模拟理解现实世界的物理与因果结构,通过预设未来场景指导决策。 在此背景下,天津市人工智能学会、中关村科学城公司、深圳市人工智能行业协会、至顶科技、至顶智库、与非网联合发布《通向AGI之路—2025年全球人工智能展望报告》。报告从AGI特征出发,全面总结全球人工智能产业的主要参与者、典型产品和应用,对AGI发展的关键领域、核心技术进行分析解读,并呈现当前关注度较高的智能体、AI硬件及应用进展。最后,报告对AGI的未来发展方向进行展望。报告为政府部门、行业从业者、教育工作者以及社会公众更好了解2025年全球人工智能的发展进程,以及探索通向AGI的前进路径提供参考。 报告支持专家 达观数据董事长兼CEO—陈运文明略科技副总裁兼研发团队负责人—李梦林明略科技高级产品总监/DeepMiner产品负责人—黄楠中国信通院人工智能研究所副总工程师—王蕴韬至顶科技CEO兼总编辑—高飞LangGPT社区创始人—云中江树Plug and Play璞跃中国基金合伙人—朱晓雯Plug and Play璞跃中国投研负责人—杨钧 报告目录 1. AI演进路径与产业概况2.迈向AGI的关键领域3.智能体技术与应用进展6. AGI未来发展路径探究5.全球AI企业最新布局4.智能硬件与典型AI应用 1. AI演进路径与产业概况 何为通用人工智能 人工智能演进路径 人工智能发展路线图 人工智能全景图谱 1.1通用人工智能成为AI演进路径的关键节点 超级人工智能ArtificialSuperIntelligence 通用人工智能ArtificialGeneralIntelligence 在全领域拥有超越人类能力的智能 弱人工智能ArtificialNarrowIntelligence 在特定领域具有感知能力的智能 在跨领域达到人类认知能力的智能 自主创新 自主学习 自主实现 任务专用 跨域推理 量子神经网络(QNN): 基于量子力学原理设计的新型计算模型,将传统神经网络架构与量子计算技术相结合。核心机制通过引入量子门避免量子比特的过早坍缩,提升计算效率。 不可迁移 深蓝计算机: 1997年5月 ,IBM“ 深 蓝 计算机”首次击败人类冠军卡斯帕罗夫。 全脑模拟(WBE): 世界模型: 通过逆向工程复制生物大脑的认知功能。包含神经符号系统融合和意识连续性测试等技术体系。 实现AGI的关键路径之一,世界模型融合物理理解、推理、规划与持久记忆能力。 具身智能: 递归自我改进(RSI): AlphaGo: 实现AGI的关键路径之一,具身智能的本质是 让AI从 虚 拟 的 信 息处理走向真实的物理实践。 在无人工干预下,自主增强自身能力。包含元学习控制器、代码自主修改和目标函数进化等技术路径。 2016年3月 ,AlphaGo与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,最终击败李世石。 资料来源:至顶智库结合公开资料整理绘制。 1.2何为通用人工智能(AGI) OpenAI联合创始人兼首席执行官Sam Altman表示,AGI是一个能够在人类水平上解决许多领域日益复杂问题的系统。 Meta首席AI科学家Yann LeCun提出,“先进机器智能”(Advanced Machine Intelligence, AMI),AMI不追求通用性,而是一种能够理解物理世界、具备推理规划能力、拥有持久记忆并服从目标导向的智能形式。 Anthropic创始人兼首席执行官Dario Amodei认为,AGI拥有完整的数字接口、可以自主规划并长期执行任务、没有物理实体但可以控制与其连接的任何机器人,训练资源可以重新部署,以运行数百万个示例并且每个示例可独立运行。 Google DeepMind联合创始人兼首席执行官Demis Hassabis提出,真正的AGI需要证明“该系统能做到历史上最优秀的人类用相同大脑架构做到的事情。 资料来源:至顶智库结合公开资料整理绘制。 1.3通用人工智能何时到来 2025-20302030-20352035-20402040-2045关于AGI落地时间,全球人工智能领域的业内代表纷纷做出预测。xAI创始人Elon Musk较为乐观,他认为AGI已初具雏形,有望在2026年到来。Google DeepMind联合创始人兼首席执行官Demis Hassabis与Meta首席AI科学家Yann LeCun均认为AGI会在2030到2035年到来。图灵奖得主Geoffrey Hinton则持相对保守的立场,预测AGI将在2030到2045年到来。 1.4 2025全球人工智能全景图谱 2025年全球人工智能全景图谱包含应用硬件层、模型层以及基础设施层。其中,应用硬件层广泛覆盖各细分领域,涉及智能体、智能助手、智能硬件、具身智能、C端/B端各类应用;模型层包含多模态基础模型、图像模型、视频模型、语音模型、推理模型、开源模型;基础设施层涵盖AI芯片、AI服务器、AI计算集群、开发平台、数据服务。图谱中涉及各领域全球具有代表性的AI应用、AI硬件、AI模型以及典型企业,为读者提供更为详实的参考信息。 2025全球人工智能全景图谱—智能体开发平台&智能助手 2025全球人工智能全景图谱—硬件&具身&AI搜索&AI办公 2025全球人工智能全景图谱—AI写作&图像&音视频&音乐 2025全球人工智能全景图谱—AI+营销&医疗&金融&教育 2025全球人工智能全景图谱—多模态模型 多模态基础模型 图像模型 语音模型 视频模型 2025全球人工智能全景图谱—推理模型&开源模型 开源模型 Qwen3QwQ-32BQwen2.5-Omni-7B 文心4.5系列ERNIE-4.5-21B-A3B-Thinking Deepseek-V3.1Deepseek-R1 Kimi K2 MiniMax-M1 2025全球人工智能全景图谱—AI基础设施 2.迈向AGI的关键领域 推理模型强化学习开源生态算力基建 2.1驱动AGI发展关键因素:推理+强化学习+算力基建+开源生态 通用人工智能的不断演进主要由四大因素驱动。一是模型推理能力的不断跃升。DeepSeek相关模型在性能上达到全球开源模型的顶尖水平。二是强化学习的不断迭代。如GRPO等新型算法通过组内相对奖励机制,解决传统PPO算法对价值函数的依赖问题。三是算力基建的持续投入。美国“星际之门”计划未来四年投资5000亿美元构建AI基础设施,为大规模AI模型训练和推理提供算力基础。四是开源生态的广泛构建与繁荣共享。Hugging Face汇聚超6000个可部署开源模型,推动前沿技术快速转化为生产力,构建全球协作的创新网络。 2.2推理路径:通过各类算法机制提升模型推理能力 大模型基于一套系统化技术路径来提升其推理能力。以思维链(CoT)为基础实现分步推理,通过自我反馈和情境记忆形成动态调整机制,并借助自一致性校验确保逻辑一致性。在训练层面,采用监督微调(SFT)与基于人类反馈强化学习(RLHF)相结合的方式,借助优势估计和终端奖励完成策略更新。同时,引入对抗性奖励信号、KL惩罚以及价值函数训练以实现策略优化的目标。 2.2推理路径:多种范式增强模型应对复杂任务的能力 大模型通过多种推理路径适应不同任务需求。基础范式包括直接输出(Direct)和思维链(CoT)推理。自一致性(Self-consistency)与多重思维链(Multiple CoT)通过生成多条推理路径并采用投票机制,为不确定性任务进行方案择优。面对需要多路径探索的复杂任务,思维树(ToT)引入树状结构,支持分支评估与回溯机制,实现不同路径之间的探索。最新提出的思维图(GoT)则突破树状结构的限制,利用图结构实现路径间的动态聚合与信息重组,为更复杂的非线性推理问题提供更优的解决思路。 2.3混合专家架构(MoE):推动推理效率与模型性能突破 MoE(MixtureofExperts)架构中,输入数据通过前馈神经网络(Feed-ForwardNeuralNetwork,FFNN)与激活函数处理,再由门控机制为每个专家分配激活概率。在稠密MoE架构中,所有专家均被激活参与计算,最终输出为各专家结果的加权和;在稀疏MoE架构中,仅激活其中若干专家(如图中激活FFNN1),以提高推理效率并降低计算资源开销。该机制实现在保持模型性能的同时,优化推理效率,适用于大规模参数部署。近年来,大模型已引入MoE架构以提升参数利用率和训练扩展性。 2.4模型蒸馏:压缩计算复杂度,实现模型高性能和轻量化部署 模型蒸馏是指大型复杂模型(教师模型)的知识迁移到小型高效模型(学生模型)的技术,其核心目标是在保持模型性能的同时,显著降低模型的计算复杂度和存储需求,使模型更适合在资源受限的环境中部署。教师模型规模庞大,性能较高,但在计算和存储资源上存在较大压力;学生模型结构较为简单,通过模仿教师模型输出的软标签(概率分布)学习其知识和表示能力,软标签包含类别间相似性和内在关系的更多信息,有助于学生模型捕捉潜在特征并提升泛化能力。在实际应用中,DeepSeek-R1对Qwen和Llama等开源模型进行蒸馏,得到更高效的小模型,显著降低推理成本。此外,诸如DistilBERT、TinyBERT以及MobileBERT模型也都采用蒸馏技术,用以在保持性能的同时提升效率,推动轻量化模型的发展和普及。 2.5主流模型的后训练过程已普遍采用强化学习方法 当前,主流大模型利用强化学习技术进一步提效。强化学习作为机器学习领域的核心技术之一,由智能体、环境、状态、行动、奖励及策略六大核心部分组成。与监督学习和无监督学习不同,强化学习是指智能体通过执行动作来影响环境,并根据环境反馈的奖励来调整策略,以便在未来做出更好的决策。目前主流模型的后训练过程均已采用相关强化学习方法进行优化。强化学习核心要素主流模型后训练的强化学习方法 2.5传统与简化强化学习成为大模型提效“双涡轮” 主流大模型在后训练阶段采用的强化学习方法主要包含两类。一类是传统强化学习方法如人类反馈强化学习(RLHF)和AI反馈强化学习(RLAIF);另一类是简化强化学习方法如直接偏好优化(DPO)和奖励偏好优化(RPO)。强化学习在大模型训练中经历三阶段流程,即奖励模型训练、偏好微调和策略优化。借助上述方法,大模型可突破单一预设答案的局限,动态适配不同偏好,生成结构合理、契合上下文且更具创造性与高质量的内容,更加贴合用户期望。 2.6海外科技巨头引领高性能AI芯片发展 近年来,AI芯片已成为驱动人工智能发展的核心引擎,尤其在大模型训练和推理中,算力、内存带宽和互联技术直接决定模型迭代更新速度。当前,国际主流芯片厂商正围绕高性能计算、低精度格式和系统级优化展开激烈竞争,推动AI芯片向更高性能演进。NVIDIA凭借其Blackwell架构与Rubin架构持续领跑,保持其在高端训练和推理芯片市场的领导地位;Google依托自研TPU深化软硬件垂直整合,强化其云计算和AI服务的底层能力;AWS通过自研Trainium训练芯片与Inferentia推理芯片的协同部署,提供云端算力解决方案。 全球主流AI芯片示例 •2024年 ,NVIDIA推 出Blackwell架构;•适用于