您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [上海贝尔]:AI-ICT 赋能与重构 - 发现报告

AI-ICT 赋能与重构

信息技术 2025-09-12 - 上海贝尔 xingxing+
报告封面

1.1综述:全球力量主导AI发展 当前,AI浪潮席卷全球,巨量资金、超长周期投资已经展开。各国纷纷加大人工智能的投资和开发。以中、美、欧为代表的全球力量主导AI的不断加速发展。尤其是中美竞争下形成“东”、“西”两大生态呈现出各自鲜明特点。美国政府及AI主流公司、社区、倡导规模法则,大算力赢未来,推动再工业化和解决复杂问题。以星际之门Stargate为代表的发展规划整合OpenAI、软银等技术和投资方,基于英伟达算力技术,面向未来发展超级AI中心,这种规模化的背景之一,是传统云厂商提供的算力规模已经无法满足像OpenAI这样公司的发展需求。在国内,AI正在成为数字新基建、新质生产力、数字化转型发展关键力量。在中国AI发展体系中,国家在长期规划、政策指引、融资支持、成本效益等方面推出系列措施,基于国内规模研发能力、产业集群和应用市场,通过东数西算宏观布局,智算中心大力建设,推动数算融合、算网融合,“知-行”融合,“数-实”融合。在欧盟方面,《人工智能大陆行动计划》,旨在将欧洲建设成为全球人工智能领域领导者,而在众多细分领域,AI与应用和产业结合,已经产生出一批有全球影响力的企业。 全球产业链发展方面,OpenAI一度作为最常用的AI产品和服务提供商,提供多模态,推理模型,深度研究等服务。英伟达提供业界领先的GPU、网络和软件(CUDA体系),Meta公司作为开源的代表提供其Llama模型,已融入40个国家的社交网络产品中。谷歌的Gemini系列模型在多模态、集成实时搜索和多语言支持强,应用广。其TPU算力集群、跨洋光缆等领域具备优势。微软在AI领域则突出其自有芯片Maia 100 AI加速器、高速网络等技术。在国内,以运营商为代表的算力中心建设行动深入开展,已建成多个大规模算力中心,模型方面以DeepSeek为代表的公司推出的V3及R1推理模型作为一款671B 参数量的开源模型,具有全球影响力,并在MOE, MLA,强化学习等领域多方面技术创新。阿里千问系列模型也在开源和服务方面占有重要地位,推出例如深度研究、ZeroSearch等服务。其小规模参数模型也经常被用作模型蒸馏。此外、腾讯、字节、百度等公司也在AI领域大规模提供模型和算力服务。 据PrecedenceResearch估算2024年全球AI市场规模6382亿美元,区域占比上北美36.9%、欧洲25.5%、亚太25.97%;预计2025年达7576亿美元。在智算发展持续加速的宏流下,业界芯片级算力年增速可达500%,而以星际之门为代表的算力规模部署(一期约40万GPU)将支持高效快速的模型训练、实时推理。中国国家AI发展规划目标是到2030年实现价值约1万亿元人民币(约1500亿美元)的AI产业。据《2025年中国人工智能计算力发展评估报告》目前智算规模达1037 EFLOPS,比2024年增长74%。根据《中国人工智能区域竞争力研究报告》,2024年中国AI产业规模突破7000亿人民币。2024年,美国私人人工智能投资达1091亿美元,中国约93亿美元。AI的商业应用用也在加速普及,78%的企业在2024年应用了人工智能技术,较前一年的 55% 有了大幅提升。 面对快速发展AI以及AI与ICT基础设施和应用复杂的关联,本文首先从梳理AI本身“规模化“发展这个首要特征,溯源到AI深层计算和通信关系变化的本质思考,进而全面审视AI与ICT相互的赋能机会和技术需求。 1.2趋势1:AI规模化向高阶演进 1.2.1 新摩尔定律与算力规模化 摩尔定律下每18个月计算能力翻一番,相当于约50%年复合增长率。而被称为“新摩尔定律”的智能算力每4~5个月翻一番,年复合增长率达500%以上。以英伟达为代表的AI算力厂商也表示,其GPU算力2年增长40倍,与“新摩尔定律”相符。 算力规模:芯片厂商主攻GPU,云厂商则以ASIC见长。例NVIDIA H200/Blackwell系列GPU可达9 PFLOPS(INT8),AMD MI300X/MI325X系列、英特尔 Gaudi2/3系列也提供接近或达到P级别FLOPS算力。ASIC厂商方面,Google TPU单体具备275 TFLOPS (BF16/INT8),AWS Inferentia系列、Azure Maia系列也提供类似能力。 网络规模:规模化也体现在网络能力的极大发展。NVIDIA单机架NVlink网络带宽可达130TBGB/s超过1Pbs,被认为大于全球移动互联网并发流量。AWS则推出其“10p10u”网络兼顾带宽和时延性能(≥10 Pbs,<10μs RTT);而Google TPU Pod v5p 4.8 Tb/s x 8960 芯片封闭架构的极致带宽可达29Pbps;Meta兼容异构算力的开放式OCP DSF, 64x800Gb/s网络可达51.2Tb/s。 中美算力竞争:在大规模投入之下,美国在全球算力生态中处于领导地位,例如xAI公司Colossus算力集群总算力规模达200Eflops。而国内最大单体智算中心在10EFLOPS规模,国内主要的智算中心单体规模接近1Eflops(=1e18 flops)。 GPU擅长并行计算,是当前较为成熟的算力形态,而QPU量子算力基于量子叠加与纠缠特性,在特定问题上具有指数级加速潜力。目前业界商用量子设备和算力已初具规模,如国际上的PsiQuantum、IonQ,中国的本源量子等。量子处理单元QPU与GPU的融合是算力发展的趋势。面向未来高性能“量子-经典混合计算架构”,通过软硬件协同设计,解决量子计算的实用性瓶颈(如纠错、控制、算法优化),同时释放经典算力与量子算力的协同潜力,目前主要的业内实践如NVIDIA的CUDA-Q。 1.2.2 扩展律(Scaling Law)与模型规模化 预训练规模化 模化发展另一大定律是扩展律Scaling Law。扩展律是指随着投入算力、数据量、模型参数的增加,模型的损失不断下降(精度不断提升)。人工智能的“扩展律”对AI模型的发展具有重要意义,推动了GenAI的发展和ChatGPT时刻的出现。在规模化发展趋势下,模型训练算力需求年均增长 4.6 倍,主要源于研发投入扩张(年均 2-3 倍)及硬件性能提升,GPT-4 级别模型训练成本已超数千万美元,随着模型算力扩张,模型性 能提升但边际收益递减。从数据角度,大规模预训练驱动数据需求暴增,训练数据集规模年均增长3.5倍,当前最大模型已使用数十万亿Token数据。而公开可用人类文本数据约300万亿Token,按当前消耗速度,2026‒2032 年将耗尽。 后训练规模化 随着规模发展,AI面临算力高成本、数据耗尽、算法架构停滞不前等问题。近期AI创新突破纷纷围绕通过模型优化、以较小的算力代价和数据依赖获得提升,训练方法也从自监督训练向强化学习方法过渡。降低了对数据规模的依赖。可以说,强化学习是scaling law的新引擎。因此,扩展律开始增加向“后训练“和“推理时计算”拓展的路径,不断增加模型的计算,体现出从「数据驱动」转向「推理驱动」的特点。 同时,在大规模预训练中继续提升效率也未停止,如混合专家模型(MoE)的稀疏激活,显著降低相同任务所需的实际算力,多头潜在注意力(MLA)等方式进行参数合并降低计算需求。 中美模型竞争 自2022年底ChatGPT引爆全球大模型创新热潮,国内科技厂商纷纷跟进,短时间内,从事AI大模型研发的企业超过100家,进入所谓“百模大战”阶段。当时,国内大模型尚处于跟随状态,更强调基于中文语料训练、本土文化理解等优势。 据EpochAI分析,目前美国的大模型体系仍然在整体上占有优势,中国的模型正在赶超。美国在开发顶级人工智能模型方面仍处于领先地位,但中国正在缩小与美国的差距。从数量上,2024 年,美国机构共开发了40 个标志性的人工智能模型,中国有15 个,欧洲有3 个。从质量上,中国通过追赶,明显缩小了差距。此外,中国在人工智能论文和专利方面继续保持领先。 在量子计算与AI模型算法结合的实用化进程中,一些技术路径已初步展现出应用潜力,量子机器学习提供了Q for C, Q for Q等方式使得量子算力可以适用于经典数据环境或量子数据环境。对输入数据进行量子嵌入,从而对核心计算采用量子电路执行。此外,如量子混合微调,通过量子神经网络(QNN)与经典张量网络混合架构,将模型权重映射到量子态空间,利用量子叠加态并行优化参数组合,实现参数量压缩。但是当前也存在量子比特数有限、纠错依赖经典GPU等问题。 1.2.3 开源、生态、市场发展 开源和生态发展 在通用大模型收敛到全球少数公司主导的情况下,众多原大模型企业和下游用户在应用领域发力。根据自身需求和能力的不同,从知识库到智能体应用,部分有实力的行业参与者,继续通过后训练甚至包括预训练行业大模型,成为AI浪潮的深度参与者。 模型开源增加了AI的可获得性。例如Llama, ChatGLM-4, DeepSeek, Qwen3等模型的开源极大降低了AI的获取成本,特别是降低了LLM后训练和部署推理的门槛,推动了AI部署的多样性和分布性,丰富了算力的网络互联场景。这也使得AI生产端则呈现出闭源繁荣,开源发展的态势,尤其是2025年开始,闭源侧AI服务大升级,人工智能变得更加高效、经济和易用。依托小型模型能力跃升,GPT-3.5 级别的推理成本在2022 年11 月至2024 年10月间下降280多倍。硬件层面,年化成本降幅约30%,能效年提升率约40%。同时,开源模型正在缩小与闭源模型的差距,在某些比较基准上,性能差距从8%缩小到仅1.7%。这些趋势加在一起,正在迅速降低先进人工智能的应用门槛。因此每个人/每个组织都可以有自己的AI LLM/Agent体系,人工智能的使用正在加快世界发展速度,也将重塑全球ICT基础设施。 市场发展 AI的“有用性”在各种场景中的表现进步迅速。例如AI在基准测试如(MMMU、GPQA、SWE-bench等)的性能持续提升,在生成高质量视频方面也取得重大进展,而AI编程在某些场景下在时间受限的编程任务中甚至表现优于人类。随着AI越来越“有用”,AI的使用越来越广泛。从医疗到交通,2023 年,美国食品和药物管理局(FDA)批准的人工智能医疗设备达 223 款,在公共道路上,自动驾驶汽车领域,美国头部运营商之一 Waymo 每周提供超过 15 万次自动驾驶乘车服务,而百度的Apollo Go 自动驾驶出租车所提供的服务已覆盖众多城市。特别是2023年以来,人工智能使用量以前所未有的速度增长。 据Epoch AI 分析,以OpenAI, Anthropic, Google DeepMind等公司的AI综合收入在2023-2024年间增长了9倍。 市场发展不但使端侧用户更容易访问和使用模型业务,同时算力本身也在想端侧延伸部署。2025年在AI终端侧,所谓AI的“iphone”时刻或将到来,推动AI消费市场发展进入新阶段。以英伟达为代表的算力厂商,计划推出1PFLOPS,128G个人桌面型算力盒子,与笔记本配合使用。并有20PFLOPS,800G企业级本地算力,可运行Llama4最大10000亿参数开源模型。而物理和具身智能方面,各厂家正相继推出商用产品。 1.2.4 算力能耗规模 大算力高能级 算力的运行依赖电力的供应。算力大发展也伴随着功率的大幅提升。电力在算力发展中可能成为一个主要瓶颈。一方面是电力消耗指数级增长,前沿模型训练电力需求年均翻倍。单个 LLM 训练耗电量可能达 1-10TWh,随着电力供应将成为模型规模扩展的重要制约,硬件能效提升得到重视。领先硬件供应商可以年均提升 40%左右(如 NVIDIA H100 在FP16 格式下达每瓦2.83TFLOPS/W),而从模型层进行优化如稀疏训练等方式可以降低算力需求,同时优化电力需求。另一方面超级算力建设项目,如星际之门,其功率达到1.2GW,接近大型核电机组输出功率