AI智能总结
横向扩展与纵向扩展的CPO技术、CPO总拥有成本与功耗预算、DSP收发器与LPO/NPO/CPO对比、台积电COUPE工艺、MZM/MRM/EAM调制器深度解析、CPO核心企业与供应链布局 DYLAN PATEL、DANIEL NISHBALL、MYRON XIE及另外3位作者2026年1月2日∙付 费内容 共封装光器件(CPO)技术长期以来被寄予厚望,有望彻底改变数据中心互联格局,但该技术历经漫长周期才得以面世,真正具备部署条件的成熟产品直至2025年才问世。在此期间,可插拔收发器凭借其相对成本效益、部署便捷性以及基于标准的互操作性,始终满足网络需求并保持着主流地位。 然而,人工智能工作负载带来的高网络需求意味着此次情况不同。人工智能网络带宽的发展路线图表明,互连速度、覆盖范围、密度和可靠性要求很快将超越收发器所能提供的水平。固态光子学(CPO)将带来一定效益,为横向扩展网络提供更多选择,但它将成为纵向扩展网络的核心技术。在本十年后期及之后,CPO将成为纵向扩展网络带宽增长的主要驱动力。 当前基于铜缆的扩展解决方案(如NVLink)可提供高达7.2Tbit/s的单GPU带宽——鲁宾架构时代将提升至14.4Tbit/s。然而铜缆链路的传输距离上限仅为两米,这意味着扩展域的规模最多只能覆盖一两个机架。此外,通过铜缆提升带宽的难度正日益增加。在Rubin架构中,NVIDIA将通过双向SerDes技术使每铜缆通道带宽再翻倍。但依靠开发更高速SerDes来提升铜缆带宽的扩容路径充满挑战,进展缓慢。而CPO技术不仅能实现同等甚至更优的带宽密度,更能提供多元化的带宽扩容路径,同时支持更大规模的扩展域。 要理解CPO技术诞生的动因,首先需审视光通信中使用收发器时存在的诸多低效与权衡。收发器虽能延长链路距离,但网络交换机或计算托盘前面板上用于插拔收发器的插槽,通常距离XPU或交换机ASIC有15-30厘米之遥。这意味着信号必须先通过LR串解码器在15-30厘米距离内进行电传输,再由收发器内的数字信号处理器(DSP)恢复并调理电信号,最后转换为光信号。采用CPO方案时,光引擎直接部署于XPU或交换机ASIC旁,从而省去DSP环节,并可使用低功耗SerDes将数据从XPU传输至光引擎。相较于DSP收发器,该方案可降低50%以上的数据传输能耗——许多方案甚至致力于将每比特能耗降低80%。 尽管像英伟达和博通这样的横向扩展型CPO解决方案正获得更多关注,并受到终端客户的密切关注,但主要超大规模企业已开始规划其纵向扩展型CPO战略,并向供应商作出承诺。例如CelestialAI预计到2028年底可实现10亿美元营收规模——我们认为这主要得益于其与亚马逊Trainium4协同推出的纵向扩展CPO解决方案。 专注于CPO的企业现已超越论文、试点项目和演示阶段,正就光端口架构等关键产品决策展开布局,以解决大规模量产难题。对于扩展型CPO而言,问题已不再是"是否采用"和"为何采用",而是"何时实现"和"如何推进"——如何推动这些系统进入量产阶段,以及何时能确保激光器等关键组件的供应链稳定。 本文将深入探讨CPO的优势与挑战、CPO架构的工作原理、当前及未来的CPO产品、专注于CPO的企业、CPO相关组件及其各自的供应链。本文旨在为从业者、行业分析师、投资者以及所有对互连技术感兴趣的人士提供指南。 目录与阅读指南 本文分为五个部分——读者可根据自身兴趣或关联度选择重点阅读章节。 在第一部分:CPO总拥有成本(TCO)分析中,我们将首先探讨采用CPO如何改变横向扩展与纵向扩展网络的总拥有成本。我们认为,在横向扩展网络中采用CPO时,总拥有成本、可靠性及设备供应商议价能力将是主要考量因素。我们将探讨CPO技术是否已具备在横向扩展场景中的成熟应用条件,并结合现有解决方案可靠性数据进行论证,例如Meta公司在ECOC2025大会上发布的CPO横向扩展交换机研究成果。 在第二部分:CPO介绍与实施中,我们将深入探讨CPO的工作原理。本节将探讨市场从铜缆到共封装铜缆的演进历程,从数字信号处理器(DSP)光模块到线性可插拔光模块(LPO)再到CPO的发展轨迹,并剖析推动CPO应用的驱动力与核心论据。同时将深入分析串行器/解串器(SerDes)的扩展极限,以及宽带I/O作为SerDes替代方案的潜力——尤其当其与CPO协同应用时所展现的优势。 在第三部分:推动CPO进入市场中,我们将阐述助力CPO获得市场认可并实现商业化的关键技术。首先探讨主机与光引擎封装技术,详细解析台积电COUPE工艺及其成为首选集成方案的原因。光纤连接单元(FAU)、光纤耦合技术以及边缘耦合器与光栅耦合器的对比将得到全面阐述。我们将涵盖调制器类型,包括马赫-曾德尔调制器(MZM)、微环调制器(MRM)和电吸收调制器(EAM)。本节将以阐释光纤光子学被广泛采用的核心原因收尾——即通过光纤光子学实现带宽扩展的多重路径:增加光纤连接数量、采用波分复用技术 在第四部分:当前与未来的CPO产品中,我们将分析现今市场上可用的CPO产品及其相关供应链。我们将从英伟达和博通的解决方案开始,随后探讨主要CPO企业。我们将深入剖析Ayar Labs、Nubis、Celestial AI、Lightmatter、Xscape Photonics、Ranovus及Scintil等企业的解决方案,详细阐述各供应商的技术方案,并针对每家公司的技术路线进行利弊权衡。 最后,在第五部分:英伟达CPO供应链中,我们将详细描述英伟达CPO生态系统的供应链,列出激光光源、ELS模块、光纤接头(FAU)、FAU点灯工具、FAU组装、切换盒、MPO连接器、MT插芯、光纤以及电光测试等关键供应商,以此为本报告作结。 第一部分:CPO总拥有成本(TCO)分析 今年早些时候NVIDIAGTC2025大会上最受瞩目的议题之一,是詹森宣布推出公司首款支持CPO技术的横向扩展网络交换机。 值得注意的是,在纵向扩展领域,英伟达仍坚持推进铜缆技术,并竭力避免转向光纤方案——这一策略将持续至2027年乃至2028年。 让我们从探讨这些新型CPO交换机的总体拥有成本入手,分析横向扩展型CPO技术能带来的成本与能耗节约效益。 英伟达在GTC2025主题演讲中发布了三款采用不同CPO交换机ASIC的横向扩展交换机。尽管其具备TCO、功耗和部署速度优势,但这些优势尚不足以促使客户立即转向全新的部署模式,因此我们预计首批CPO横向扩展交换机的采用率将较为有限。具体原因如下: 典型AI集群网络架构与TCO对比 典型的AI集群包含三种主要网络架构:后端架构、前端架构和带外管理架构。其中使用最频繁且技术要求最高的当属后端架构。该架构用于GPU之间的横向扩展通信,支持GPU在集体操作中相互通信并交换数据,从而实现训练与推理的并行化处理。后端网络通常采用InfiniBand或以太网协议。 由于其高要求特性,后端网络在总网络成本和功耗中占据主导地位:在采用英伟达X800-Q3400后端交换机部署于InfiniBand的3层GB300NVL72集群中,其网络成本占比达85%,网络功耗占比达86%。基于CPO的交换机和网络解决方案可同时应用于后端与前端网络,但我们认为当前阶段的部署重点仍应放在后端网络。读者可查阅更多关于后端网络拓扑结构、端口配置、交换机及收发器等详细信息。 模型。若需了解网络总拥有成本,可参阅我们的《AINeocloud解剖与实践指南》文章。 英伟达的光学噩梦——NVL72、InfiniBand横向扩展、800G与1.6T加速DYLAN PATEL与DANIEL NISHBALL·2024年3月25日 阅读全文 AINeocloud操作指南与架构解析 迪伦·帕特尔与丹尼尔·尼什鲍尔·2024年10月3日 阅读全文 缩小范围来看——网络成本是AI集群总成本中仅次于AI服务器本身的第二大组成部分。在采用GB300NVL72集群搭配三层InfiniBand网络的配置中,网络成本占集群总成本的15%;若升级为四层网络,该比例将升至18%。光收发器是该成本的重要组成部分,在采用相对昂贵的NvidiaLinkX收发器的三层网络中,其成本占比高达网络总成本的60%。同时,三层网络中光收发器消耗的功耗占网络总功耗的45%。 人工智能集群中的GPU数量越多,就越可能需要增加网络层数。从两层网络扩展到三层及以上网络,意味着更高的成本和更大的功耗预算。CPO技术既能在保持层数不变的情况下降低功耗和成本,又能通过在固定层数的网络中扩展可连接的GPU数量,从而减少总功耗和成本需求。 CPO横向扩展功耗预算 今年早些时候,在GTC2025大会上,英伟达首席执行官黄仁勋强调,仅收发器本身就消耗了巨大功耗,这是推动CPO技术发展的关键驱动力。根据上表中的机架功耗预算数据,在三层网络架构下,一个由20万个GB300NVL72(每机架含72个GPU封装和144个计算芯片)组成的GPU集群将消耗435兆瓦关键IT功耗,其中光收发器单项功耗就高达17兆瓦。显然,通过大幅减少收发器数量可节省海量能耗。 通过对比单个800GDSP收发器的功耗与CPO系统中光引擎及激光源(按800G带宽计算)的功耗即可轻松验证:800GDR4光收发器功耗约为16-17瓦,而我们估算NvidiaQ3450CPO交换机中光引擎与外部激光源的功耗仅为每800G带宽4-5瓦,实现73%的能耗降低。 这些数据与Meta在ECOC2025会议上发表的论文中所呈现的数据非常接近。在本报告中,Meta展示了800G2xFR4可插拔收发器功耗约为15W,而博通Bailly51.2TCPO交换机内部的光引擎和激光源在传输每800G带宽时功耗仅约5.4W,实现了65%的节能效果。 让我们将分析扩展到集群层面。以基于三层网络构建的GB300NVL72集群为例,可见将后端网络中的DSP收发器替换为LPO收发器后,可降低36%的总收发器功耗和16%的总网络功耗。若全面过渡至CPO技术,相较于DSP光模块可实现更显著的节能效果——收发器功耗降低84%——但部分节能效益会被新增的光学引擎(OEs)和外部光源(ELSs)所抵消。 交换机,其总功耗现已增加23%。在下例中,CPO场景下的光收发器功耗仍维持在每台服务器1000W的基准值,因为我们假设前端网络仍将采用DSP收发器。 采用英伟达的CPO横向扩展交换机意味着默认使用高基数网络,尽管这种机制对终端用户而言是"抽象化"的——因为在CPO交换机内部即可完成端口切换,而使用高基数非CPO交换机时则需通过配线架或八爪鱼线缆在交换机外部进行切换。相反,这些NVIDIACPO交换机呈现出极高的端口数量——例如Quantum3450提供144个800G端口,Spectrum6800则提供512个800G端口。我们使用"默认"一词是因为英伟达的非CPOInfiniBandQuantumQ3400交换机同样提供144个800G端口,但其其他InfiniBand交换机(如QM9700)仅提供32个800G端口——唯有前者具备这种"高基数集成"特性,能提供大量有效端口。如此高的端口密度有望帮助客户将三层网络扁平化为两层网络,同时省去部署交换盒、配线架或笨重八爪鱼线缆的麻烦,这将成为关键卖点。在两层网络架构下,相较传统DSP收发器,收发器功耗降低84%,交换机功耗下降21%,整体网络功耗可减少48%。 Spectrum6800交换机凭借其在两种可用逻辑配置下均具备的大量端口——512个800G端口——相较于Spectrum6810(提供128个800G端口、256个400G端口或512个200G端口)实现了这一特性。采用Spectrum6810的128个800G端口方案时,两层网络最多可连接8,192个GPU;而Spectrum6800在512个800G端口配置下,可连接131,072个GPU。 其魔力在于端口数量k会随层数呈指数级增长