您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[量子位智库]:2025年度AI十大趋势报告 - 发现报告

2025年度AI十大趋势报告

AI智能总结
查看更多
2025年度AI十大趋势报告

量子位智库出品2025QbitAl Insights FOREWORD 序言 我们正站在AI发展的历史性转折点。从ChatGPT引爆全球AI热潮到各大科技巨头争相布局AGl,从算力基础设施的军备竞赛到开源生态的繁荣发展,AI技术正在以前所未有的速度重塑着我们的世界, 《2025年度AI十大趋势报告》正是在这样的背景下应运而生。通过深入分析全球AI技术发展态势,量子位智库系统梳理了2025年深刻影响产业发展和社会变革的十大关键趋势。 报告从四个维度全面展现了AI技术的发展图景:在基础设施部分,算力基建化和芯片AI化正在重构产业基石;在模型进化部分,预训练创新和应用落地推动着技术边界的不断拓展;在应用版图部分,Agentic互联网和多模态应用开启着人机交互的新时代;在中国时间部分,开源生态的发展和自主可控的技术路线彰显着中国AI力量的崛起。 这份报告不仅是对技术趋势的精准把握,更是对产业未来的深度思考。我们希望为创业者、投资人和技术从业者提供有价值的洞察,共同把握AI时代的机遇,应对挑战,共创智能未来。 年度十大AI趋势总览 Part 3 Part 2 Part4 Part 1 模型进化Model Evolution 中国时间China Time 应用版图ApplicationLandscape 基础设施Al Infrastructure 趋势3预训练决定大模型格局梯队架构创新决定预训练水平 趋势1算力基建化:数据中心需求狂鼠算力经济是智能产业第一大引擎 趋势6AI重塑流量入口:PC互联网,移动互联网、Agentic互联网 趋势10开源AI进入中国时间,AGI拥有中国路线 趋势7多模态成AI应用落地关键:视频,3D、代码依次展现生产力 趋势4大模型落地进入推理时间推理需求倒通模型创新 趋势2芯片AI化:AI原生需求重塑芯片创新大市场大生态打开时代芯机遇 趋势8AI硬件百端齐放PC手机汽车眼镜玩具,焕脑正当时 趋势5信息AI应用期,物理AI研发期具身智能成合流风口 趋势9AI4S突破加速AGI实现AI数理化触及博士水平 Part 1 基础设施 算力基建化 Al Infrastructure "有限算力"已成为全球AI发展的战略性瓶颈。这种限制不仅影响了技术研究的方向,也深刻地重塑了全球供应链和能源结构。 趋势1 算力基建化:数据中心需求狂算力经济是智能产业第一大引擎 算力已成为影响国家和企业战略布局的关键 算力基建化:数据中心需求狂,算力经济是智能产业第一大引擎 全球AI基础设施建设 资本开支增长 约$ 298 Billion 全球范围内,对AI算力的需求正以前所未有的速度增长,这直接推动了超大规模数据中心的建设浪溯。这些数据中心不再仅仅是传统意义上的服务器托管场所,而是演变为由单个AI公司主导的、集成了海量计算、存储和网络资源的算力工厂, 超大规模数据中心运营商正在加大对AI的资本投入,涵盖基码设施、平台和应用层面。 主权云与清洁能源 德国-欧领先算力中心Aws(e78z),GoogeTe102-):Mierosoft(e322) 西班牙-南欧算力枢纽 超级项目集中地 AWS(e157ZK8H)Mro5ot(521) Stargate星际之门计划(益过$1000亿)全球最大的A题美中心计划之, OpenAISOrocle, SoftBonk台Google Al纽 ($400z)Microsoft Al超级园区($73么)亚马逊新建云区域($均200Z) 新兴增长级 马来西亚-东南亚数字中心 资本重心转变 合作关系转变 Googes2bio; Microsoft ($22Z), AWS ($60/E)印尼-AI中心 云计算厂商的资本开支结构正在发生深刻的转变,其投资重点正从传统的通用计算资源向满足AI需求的专用算力基础设筛倾斜。 云厂商与AI企业的合作模式也发生了根本性变化,从简单的资源租赁关系,演变为深度绑定的战略合作伙伴。 能源优势 沙特阿拉伯·中东云区城AWS ($55Z) AI基础设施的"军备宽赛“已全面展开。 国家级别算力规划 面对全球性的算力竞争,我国已将算力基础设施建设提升至国家战略高度,正系统性地规划和布局全国一体化的算力网络。其核心目标是优化算力资源布局,推动"东数西算"工程,将东部地区的算力需求与西部地区丰富的可再生能源和土地资源相结合,构建一个高效、绿色、安全的国家算力枢纽体系,这一国家级别的规划,不仅为AI产业的发展提供了坚实的算力保障,也旨在通过算力资源的普惠化,赋能千行百业的数字化转型,从而在全球数字经济竞争中占据有利地位。 超节点/超级群建设 太空计算方案提出"太空超级计算机"与"天地一体化算网两种并行路线 超节点(SuperNode):网络里算力、带宽、存储能力突出的节点,承担"中枢"职责,超级群(SuperGroup):把多个已有的“集群“再横向连成一层更大的遇望网,对外表现为单一,高吞吐、低延迟的分布式系统, "星溪02-S21"异构AI平台在轨验证 “天算星座“云边协同试验北航牵头,2022年起 “三体计算星座"方案 过去,云厂商的资本开支主要用于采购标准化的CPU服务器和存储设备。现在,随着AI应用的爆发,其开支越来越多地投向了超节点和超级群的建设。这些由数万块高端GPU或专用AI芯片组成的集群,是训练和运行大型AI模型的基础。 之江实验室,2025年启动,目标2027年部署百星级、百TOPS级太空超算 在模型能力仍有上限的情况下,通过加大投入和扩展算力可以持续获得更好的效果, 模型能力 持续的算力需求 AI在商用和落地层面的渗透率远未饱和,存在巨大的增量市场, AI商用 AI正快速成为密不可分的生活方式,这要求算力拥有类似电力、水网的基础保障能力和可靠性。 基本需求 趋势2 芯片AI化:AI原生需求重塑芯片创新大市场大生态打开时代芯机遇 随着AI应用成为主流,芯片正在从“通用计算"转向“AI原生" 芯片AI化:AI原生需求重塑芯片创新,大市场大生态打开时代芯机遇 芯片市场格局变化 GPU主导地位 CPU角色转变 2025年预测值 Central Processing Unit 中央必理器 Graphics Processing Unit 图形处理器 切AI的起点是算力,英伟达的统治地位正受到最直接的挑战。传统芯片大厂财报亮眼表明市场对替代方案的需求旺盛。 与此同时,CPU的角色也在发生变化,其设计开始更多地考虑如何高效地协助GPU处理AI任务,例如通过集成AI加速指令集。 GPU因其强大的并行计算能力,已成为AI训练领域事实上的标准。最多用于AI的GPU成为稀缺资源,但其稀缺性和高昂的价格也促使行业导求新的解决方案。 NPU普及 ASIC/FPGA增长 产品更替 新品问世 Application-Specific Integroted Circult专用集成电路Field-Progrommable Gate Array现场可编程门库列 Neural Processing Unit 将经处理单元 在端侧设备上,为了在不依赖云端的情况下实现低功耗、低延迟的AI推理,NPU已成为智能手机、PC和物联网设备的标配 AI带来的变革促使大量新品问世,新竞争者涌现,并形成了新的生态系统。 应对AI训练与推理对算力、内存和网络呈指数级增长的需求。满足对成本、散热和功耗的严格管理, 此外,由于AI市场的巨大潜力和特定场景的算力需求,ASIC和FPGA等定制化芯片也迎来了新的增长机遇。 构建自主可控的算力生态 国产替代加速前进 面对技术封锁和供应链安全挑战,中国正集中资源,加速推进AI芯片及其配套软件的国产替代进程。在关键技术上实现自主可控,已成为保障AI产业安全和发展的战略共识。这也为国产AI芯片和算力基础设施带来了发展机遇。 个标志性的进展是,国产模型+国产芯片+国产SDK的方案,首次在千亿级参数的大模型训练中得到了成功验证。 这意味着,中国已经具备了在不依赖国外核心技术的情况下,自主完成超大规模AI模型训练的能力。 千亿级参数训练验证 这一突破的意义是深远的,它不仅证明了国产技术方案的可行性,也为后续更大规模、更复杂的AI模型研发莫定了坚实的基础。通过软硬件的深度协同优化,可以在有限的硬件性能下,最大限度地提升计算效率,这对于在“有限算力"的约束下追赶世界先进水平至关重要, 中国企业正在积极推动开源AI框架和模型的国产化适配, 国产SDK 为了摆脱对国外CUDA等专有并行计算平台的依赖,国内企业和研究机构也在积极开发自主的并行计算SDK。 DeepSeek等模型已经针对华为的异腾芯片进行了深度优化,确保模型在国产硬件上能够高效运行。 Part 2 模型进化 Model Evolution 模型的进化正在追求参数规模与效率革命的平衡,这同样受到有限算力的影响。模型不仅在自我超越,更以物理AI为代表,在现实交互上取得了重大突破。 趋势3 预训练决定大模型格局梯队架构创新决定预训练水平 算力的制约始终存在,新的架构是解决规模"与"效率"矛盾的关键路径。 预训练决定大模型格局梯队,架构创新决定预训练水平 混合专家模型MixtureofExperts,MoE 超越Transformer架构 在模型规模上,业界依然相信规模定律(ScalingLaw),即更大的模型通常能带来更好的性能。然而,无限增大模型参数也带来了训练和推理成本的急剧上升。为了在性能和效率之间取得平衡,混合专家模型架构成为了一种主流选择。 突破瓶颈 为了突破Transformer固有的二次方计算复杂度O(n*)瓶颈研究者们正在积极探索超越Transformer的新架构, MoE:核心思想是"大参数,小激活" 即模型拥有魔大的总参数量,但在处理每个输入时,只激活具中一小部分"专家"网络进行计算,这种端疏邀活的方式,使得模型能够在不显著增加计算成本的情况下,大幅扩展其容量和知识储备, 目前,国内的多个顶尖模型都采用了MoE架构,并取得了与密集模型相美的SOTA性能。 线性注意力(Lineor Attention)和稀疏注意力(SparseAttention)是两条主要技术路线。 线性注意力 稀疏注意力 将复杂度降低到O(n)高效处理超长上下文 只计算部分关键token之间的注意力大幅减少计算量 这些创新架构在保留Transformer强大建模能力的同时,显著提升其计算效率,使其更适用于长文档处理、视频理解等需要长程依赖的任务。 蒸馏小模型KnowledgeDistillation 与追求更大模型的趋势并行的是,如何将大模型的知识和能力“蒸馏"到更小、更高效的模型中。 受现实影响的创新 模型蒸馏:通过让小模型(学生模型)学习模仿大模型(教师模型)的输出分布或中间表示,从而在不显署损失性能的情况下,大幅压缩模型尺寸,降低其对算力的需求。 这对于将AI能力部署到手机、汽车等算力受限的边缘设备上至关重要。通过蒸馏技术,可以在端侧实现接近云端大模型的智能水平,同时满足低延迟、高隐私和低成本的要求。 算力制约 算力的制约始终存在。MoE等混合架构是解决"规模"与"效率"矛盾的关键路径。 强化学习 Reinforcement Learning,RL 效率革命 强化学习与大模型的结合,正成为提升模型在特定任务上表现的重要研究方向。传统的监督学习主要让模型学习模仿数据,而强化学习则通过与环境的交互和试错,让模型学习如何决策以获得最大化的奖励。 模型使用需要持续耗费算力,训练成本越高,回报期越长。效率革命是实现快速商业化的关键, 人类反馈中强化学习(ReinforcementLearning from Human Feedbock,RLHF)技术尤为关键。 Agent要求 通过