您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[复旦大学&清华大学&北京大学]:人工智能与先进计算融合发展路径研究蓝皮书 - 发现报告

人工智能与先进计算融合发展路径研究蓝皮书

AI智能总结
查看更多
人工智能与先进计算融合发展路径研究蓝皮书

人工智能与先进计算融合发展路径研究蓝皮书 版权声明 本蓝皮书版权属于编写发布单位,并受法律保护。转载、摘编或通过其他方式使用本蓝皮书文字或者观点应注明“来源:人工智能与先进计算融合创新学术会议暨中国工程院工程科技学术研讨会“生成式变结构计算与高效能先进计算新路径研究”,人工智能与先进计算融合发展路径研究蓝皮书,2025年8月”。违反上述声明者,版权方将追究其相关法律责任。 编委会主任 邬江兴 编委会(按姓氏笔划排序) 马凯学叶乐石宣化刘勤让李涛汪志强吴华强张帆金海明雪飞窦强梁新夫韩银和薛向阳邹宏 编写人员(按姓氏笔划排序) 王钧彝王颖王刚冯枫冯丹朱丹江刘强刘丰满许志伟祁晓峰余杰余新胜吴庆波张庆东陈艇陈曦范旺尚玉婷胡杨胡宇翔胡小燕贺明赵豪兵查雨立夏于桐郭国平郭威高彦钊曹伟梁新夫彭聪廖小飞潘纲 人工智能与先进计算融合发展的路径选择 当下人工智能技术正加速渗透各个领域,智能计算正从辅助工具转变为核心生产力,对计算系统的性能、效能、灵活性与安全性提出了革命性需求。不同于传统计算场景的单一任务导向,AI时代的计算系统需在处理EB级数据规模、支撑万亿参数模型训练、满足毫秒级实时决策等极端场景下实现高效协同,同时兼顾边缘端的低功耗部署与云端的弹性扩展要求。然而,以冯·诺伊曼架构为代表的传统计算体系因“存储墙”“功耗墙”及指令集僵化等固有缺陷在应对AI负载时暴露出算力供给不足的底层架构局限与软硬件生态碎片化的深层矛盾。面对人工智能对算力、效能与实时性的极限挑战,全球先进计算领域正探索多元化技术路径以突破传统架构瓶颈。本书系统梳理量超智融合、光计算、图计算、存算一体、类脑与神经元计算和生成式变结构计算前沿方向,分析其技术原理、优势、瓶颈及融合潜力,为构建下一代高性能、低功耗、高可靠的智能计算体系提供参考。 第一章.人工智能驱动计算系统范式变革...........................................1 C O N T E N T S1.1智能计算性能需求............................................................................................11.2智能计算效能需求............................................................................................21.3智能计算灵活性需求.........................................................................................21.4传统架构在大规模处理场景下的局限性...........................................................3 第二章.量超智融合——先进计算范式下多体系相互赋能.................4 2.1背景与核心意义................................................................................................42.2国内外现状与挑战............................................................................................42.3量超智融合的系统架构设计与优化..................................................................52.4量子计算与AI双向赋能的有效路径...................................................................62.5开启量超智融合计算新纪元.............................................................................9 第三章.光计算....................................................................................10 第四章.图计算....................................................................................12 4.1图计算多范式统一抽象:突破碎片化智能建模瓶颈........................................124.2高并发稀疏计算架构:重构非规则智能推理的计算底座.................................134.3动态异步图计算执行机制:释放智能推理的系统潜能.....................................134.4面向大模型推理的图计算融合范式:迈向“稀疏‒稠密”动态融合的............下一代计算模式....................................................................................................15 第五章.存算一体................................................................................16 5.1存算一体器件、阵列及电路.............................................................................175.2存算一体架构....................................................................................................175.3存算一体软件支撑工具链.................................................................................18 第六章.类脑与神经元计算..................................................................19 6.1类脑与神经元计算的意义.................................................................................196.2类脑与神经元计算技术路线.............................................................................216.3类脑与神经元计算研究的现状..........................................................................216.4类脑计算的应用潜力.........................................................................................23 第七章.生成式变结构计算..................................................................25 7.1拟态计算...........................................................................................................257.2生成式变结构计算............................................................................................277.3生成式变结构计算的赋能机理..........................................................................29 参考文献................................................................................................32 人工智能驱动计算系统范式变革 人工智能正以颠覆性力量重构计算系统的底层逻辑,推动其从工具化应用向范式级变革演进。智能计算在性能、效能、灵活性以及安全性方面均产生了革命性的新需求。 1.1智能计算性能需求 传统计算架构以冯・诺依曼体系为核心,围绕计算、存储和I/O三大核心环节,根据应用场景动态调整硬件配置。其遵循存储与计算分离的经典架构,指令与数据存储在同一内存空间,CPU通过总线读取数据执行计算。这样的设计优势体现在架构标准化程度高,软件开发适配简单,但缺陷在于数据需在内存与CPU间频繁传输,形成瓶颈,进而造成存储墙问题。此外传统计算架构在通用计算方面有一定的优势,广泛适用于逻辑控制、串行任务以及复杂指令集处理。但在特定计算场景如面向人工智能的矩阵运算和并行数据处理方面局限性明显。以下如表1所示是传统计算架构与新兴智能计算架构在计算模式、数据处理以及成本优势方面的对比。 智能计算的性能需求呈现出鲜明的双超特征:超大规模数据处理与超复杂模型训练。在大规模数据处理端,各类结构化及非结构化呈爆发式增长态势,以图像数据为例,随着图像技术的发展,图像像素及分辨率日益提升,随之带来的影响即是数据量的大幅增长,仅一家三甲医院每年产生的医疗影像数据就已突破100PB,一座中型智慧城市的视频监控系统日均新增数据量就可达EB级,这些非结构化数据的实时处理对算力提出苛刻要求。传统CPU处理1080P视频的目标检测任务帧率仅为2~3帧/秒,若采用NVIDIA.H200.GPU的计算集群则可实现200帧/秒的处理速度,算力提升达两个数量级。 在复杂模型训练端,以OpenAI的GPT-3模型为例,其1750亿参数的训练需要消耗3.14×10¹¹.TFLOPS的算力,若使用当下主流的1万台CPU服务器组成集群.(单节点算力约1TFLOPS),训练周期将超过2.2年。而基于H200构建的异构计算集群,通过52.1TFLOPS/mm²的超高算力密度 和4.8TB/s的HBM3e.内存带宽,可将同类模型的训练时间压缩至数周级别。这种性能需求的本质,是智能计算从“算法优化驱动”转向了“算力规模驱动”,要求计算系统具备支撑万亿参数模型并行训练、百万路视频流实时分析的能力。表2体现了传统CPU与新型GPU的算力能力对比表,从目标检测、万亿参数训练、大规模图像分类、EB级数据处理以及浮点运算方面反映了新型计算范式在性能上的巨大提升。 这种“算力通胀”模式在碳中和目标下难以为继。在万亿参数模型训练中,主流GPU集群的能效比仅8.7TOPS/W,单节点训练1.8T参数模型时,显存与主存的数据交互功耗占芯片总功耗的65%,形成“计算效率越高、能耗增长越快”的悖论。 从芯片级重构与系统级优化两方面进一步分析智能计算效能提升的方式。在芯片层级,可通过存算一体架构打破存储和计算分离的模式,后摩智能鸿途TMH30芯片通过近存计算设计,将能效比提升至16.3TOPS/W,数据搬运能耗降低50%,使边缘端处理视频流的功耗从传统方案的200W降至80W;在系统层级,通过浸没式液冷技术新一代全液冷数据中心将PUE从传统架构的2.2降至.1.1,散热功耗下降96%,