
中国移动智算中心网络技术实践与思考 目录 一、中国移动NICC技术体系二、智算中心网络面临的挑战三、智算中心网络创新实践四、总结与展望 智算中心背景与需求 AIGC(AI-Generated Content,人工智能生产内容)发展迅猛,迭代速度呈现指数级增长,全球范围内经济价值预计将达到数万亿美元,智能算力将成为未来主流算力 GPU算力规模10000+卡 国内市场规模2000亿元(2025年) 新 型 智 算 中 心— 以高性能GPU、AI加速卡为中心,以高速互联智算集群为目标,形成集约化建设的E级超大规模算力基础设施,具备软硬件AI全栈环境,支撑AI大模型的高效训练和推理 NICC新型智算中心技术体系 中国移动NICC技术体系从新互联、新算效、新存储、新平台、新节能等五大方面进行系统性重构,加快发展智能算力,构建标准统一、技术领先、软硬协同、兼容开放的新型智算中心技术体系 AI参数面通信特征 大模型的参数量呈指数增长态势,“大模型”正走向“超大模型”,基于数据并行、模型并行的分布式训练成为处理超大模型和超大数据集的有效手段 大模型训练通信特点: Ø每轮通信量大(GB~百GB级) •服务器内通信量为百GB级,以allreduce为主•服务器间通信量为GB级,包括allreduce和p2p,大部分可以被计算掩盖•MOE会引入节点间alltoall流量 网络是提升AI大模型训练效率的关键 大模型以GPU集群分布式训练为基础,集群节点间频繁地参数同步带来大量通信开销,网络性能成为提升GPU集群算力水平的关键 集群有效算力∝{GPU单卡算力*总卡数*线性加速比*有效运行时} 网络性能决定GPU集群算力加速比 网络可用性决定GPU集群稳定性 芯片能力决定GPU集群组网规模 在大模型训练任务场景,并行系统节点数越多,机间通信占比越高,网络性能成为获得线性加速比的关键 网络芯片能力一定程度决定智算中心网络规模和性能,单芯片容量越大,组网规模越大且成本越低 作为集群共享资源,相比单点GPU故障或性能波动,网络故障影响域大,网络性能波动影响范围广 H800(400G*8)服务器,51.2T可支持1024台服务器组网,12.8T仅支持64台服务器组网 传统无损以太技术存在性能瓶颈,需从底层机制革新 如何提升网络可靠性和有效带宽,降低时延抖动是提升模型训练效率的关键 源端任意向网络推流,出现拥塞被动降速,GPU闲置等待 基于流转发,流数量少导致哈希失效,链路负载不均 •问题:传统以太网源端发流不关注网络情况及目的端接受能力,直接向网络“推”流,AI训练过程存在多打一流量,导致网络产生拥塞或丢包;通知源端降速或重传,导致GPU空闲,算力损失 •问题:AI训练的流特征是流数量少但单流带宽大,传统流级负载均衡极易造成多个流哈希到同一条链路,造成部分链路拥塞,部分空闲,网络利用率低,无法应对突发的网络流量 有效通信带宽≠网卡/交换机组网物理带宽 •方向:源端向目的端“请求”发送权限,基于网络转发能力的被动“拉”流,最大概率消除拥塞概率,优化长尾时延 •方向:对每条流的多个数据包逐个进行负载分担,实现单流在全路径“喷洒”,提升有效带宽,更好应对突发流量 现有以太网协议基础转发和调度机制,在AI模型训练场景存在天然缺陷,单纯优化上层网络协议无法解决,需深入底层基础协议,对物理层、MAC层转发机制进行革新,突破无损以太性能瓶颈 全调度以太网(GSE)技术特征 联合产业发布全调度以太网(GSE)技术架构,最大限度兼容以太网生态,创新基于报文容器(PKTC)的转发及调度机制,构建无阻塞、高带宽、低时延的新型智算中心网络,形成标准开放的技术体系,助力AI产业发展 创新以太网转发机制,实现三大核心机制转变 从盲发+被动控制到感知+主动控制 从“局部”决策到“全局”调度 从“流”分发到“报文”分发 从被动拥塞控制,到基于“授权请求和响应机制”的主动流控,最大限度避免网络拥塞产生 全局视野的转发调度机制,实现集中式管理运维、分布式控制转发,提高网络可用性 将业务流拆分到不同“报文容器”转发,提供逐“报文容器”负载均衡机制,提升带宽利用率 当前:逐流负载,链路利用率低、发生拥塞被动降速 未来:逐报文容器转发,链路负载均衡,全局调度,避免拥塞 全调度以太网(GSE)组网场景 GSE协议可根据网络设备和网卡能力,将方案各组件功能在网络组件中重新分工,支持多种组网场景,为后续网络建设和设备选型提供灵活的选择方案 Ø源GSP、GSF由网络设备担任,执行GSE头解封装、容器生成、多路径分发等功能Ø网卡承担部分GSP角色,负责授权应答和报文排序 •GSP和GSF角色均由网络设备担任,执行GSE头解封装、容器生成、多路径分发、端到端授权应答及报文排序•传统RoCE网卡,对网卡无额外要求 全调度以太网(GSE)推进进展 创新试验 评估评测 技术标准 依托中国移动CIFIT试验网,验证新型网络技术,推动技术成熟与规模建设 联合产业推动GSE方案成熟,形成开放统一的技术标准体系 联合仪表厂家开展合作,制定普适统一的网络功能、性能评估方法 全调度以太网(GSE)推进计划 中国移动携手中国信通院,联合国内外三十余家主流互联网,设备商、芯片商、高校院所联合发起GSE推进计划,推动智算中心网络技术创新、标准完善和产业应用,打造高速无损、开放兼容的新型智算中心网络技术体系 Ø全调度以太网(GSE)推进计划研究范畴: •物理层:低时延Phy、PhySEC、故障快速检测、B400G高速光接口、光交换等•链路层:基于报文分发和重组机制、调度技术、链路级安全及容错等•网络层:新型组网拓扑、新型组播/任播协议等;•传输层:改进的RDMA、新型拥塞控制等•应用层:在网计算、存储加速、开放API框架等•管理和运维体系:网络可视化、可调试能力、多维自动化能力 Ø成员情况: 中国移动,中国信息通信研究院,华为、中兴、锐捷、新华三、浪潮、Intel、Broadcom、清华大学、上海交通大学、鹏城实验室、紫金山实验室、北京邮电大学、中科院计算机网络信息中心、中信科、Spirent、是德科技、盛科、云合智网、楠菲微电子、燧原科技、昆仑芯、迈普,星云智联、云脉芯联、中科驭数、云豹智能、大禹智芯、中盈优创等 期待更多产学研合作伙伴加入GSE推进计划,携手共建新型智算中心网络产业生态! 业务通信原语与网络通信模型存在差异 分布式系统节点间以多对多的集合通信为主,业界主流方案基于RDMA点到点高效传输, 多播业务效率问题 •引入了与通信规模线性相关的额外开销,且无法通过优化下层网络的延迟/吞吐性能来消除 扩展性问题 •有测试表明,RDMA商用网卡在QP数量超过256时,吞吐即会出现明显的下降 NDMA面向集合通信的原生设计,最优化集合通信性能 网络级DMA(NDMA)对网络中一组节点内存直读/写,是面向集合通信的原生传输框架,通过端网协同,将业务逻辑下沉,结合网络多播能力,实现组播、任播和聚播的高效传输 中国移动联合星云智联和华为,基于NDMA技术方案开发搭建原型验证系统,分别验证计算、存储场景NDMA带来的性能增益 1对3组播测试下,相比于传统openMPI的方式,NDAM对大消息和小消息均有显著性能提升,任务完成时间平均降低50% 任一节点作为接收节点的测试下,相比于传统应用层任播(带水平时延)方式,NDMA使得存储IOPS提升45%以上 总结与展望 •智算中心网络有效带宽、时延抖动、可靠性成为提升训练效率的关键因素•链路负载均衡不均、被动拥塞控制机制、网络自动化能力不足是当前智算中心网络面临的主要问题•持续开展NDMA等技术创新及标准推动,进一步丰富端网协同的技术体系•体系化新型智算中心网络技术成熟,构建标准技术生态和评测体系,积极开展新技术创新试验•欢迎更多上下游产业伙伴加入GSE推进计划,推动GSE技术标准和生态成熟,助力AI技术发展