AI智能总结
在AI浪潮中,铜互连因其低成本和低功耗优势在短距离连接中份额提升 随着生成式人工智能(AIGC)技术的逐步成熟,基于“大数据+大计算量”模型的新兴应用不断涌现,显著推动了算力需求的持续攀升。作为计算能力的核心载体,数据中心在算力高需求的驱动下,其相关的服务器领域及上下游产业预计将在未来几年内迅速扩展。铜连接方案因其低成本和低功耗的优势,预计将在数据中心短距离连接中的市场份额有所提升。 GB200大量应用铜连接方案,AI推动高速铜缆行业需求高增 随着数据中心设备间数据传输速率和带宽的不断提升,选择合适的互联方案已成为市场关注的焦点。光纤和铜缆因其抗干扰性和保密性,已成为主要传输媒介。 尽管光纤因传输距离远的优势在通信行业被广泛采用,铜连接方案在数据中心设备内的短距离连接(如交换机到服务器)中,逐渐获得了更大的市场份额。在NVIDIA GB200解决方案的一个重要变化在于交换机和计算节点在单个机柜内的互连,交换机的内部连接采用铜缆连接,而不是之前的PCB-光模块-电缆连接。 AEC作为数据中心内部高速短距连接技术,逐渐成为业界关注的焦点 AEC的核心在于通过内置的信号增强芯片,提升铜缆的传输距离和信号质量,使其在数据中心内部高速互联中发挥着重要作用。当前,我国AEC正处于快速发展阶段,众多企业纷纷布局AEC,以期在未来的数据中心市场中获得竞争优势。展望未来,随着AI技术的不断发展和数据中心算力需求的持续增长,AEC有望在数据中心内部高速短距连接领域取得更大的突破,同时也为我国算力产业链的发展注入活力。 投资建议: 受益标的为AEC产业链各环节龙头公司:立讯精密和兆龙互联。 风险提示:技术差距风险、国际标准制定风险、市场竞争风险、原材料价格波动风险、下游需求波动风险 1、铜互联技术已成为提升数据中心性能的关键要素 针对交换网络,有多重连接方案。在数据中心内部,按照传输介质不同,存在光纤连接和铜缆连接两大类网络线缆连接方式,常见的光纤连接包括光模块+光纤、AOC,铜缆连接则主要包含DAC/ACC/AEC。 (1)光纤连接: 光模块+光纤:光模块搭配光纤是目前应用最为广泛的网络布线方案。光模块是光纤传输中的关键组件,它负责完成光电转换的任务。在发送端,光模块将电信号高效地转换成光信号,通过光纤进行远距离传输;而在接收端,光模块则将接收到的光信号再转换成电信号,供后续处理使用。光模块+光纤的方案,优势在于传输距离长,劣势在于功耗和成本偏高。 AOC(Active Optical Cables,有源光缆):光模块和光纤集成化,形成一整条线缆,无需用户侧组装。AOC通过光纤传输高速信号,可用于 100m 内的中短距离互联场景。AOC方案优点是具有更高的传输性能和更长的传输距离,且较铜缆重量轻、布线方便,缺点是相较于铜缆成本和功耗较高。 图1:光模块及光纤和AOC链接方案对比 (2)铜连接 按是否内置电子元件以增强信号,铜缆连接可分为无源铜缆(DAC,Direct Attach Cable)和有源铜缆(Active Copper Cable)。 DAC(Direct Attach Cable,无源铜缆):是一种双绞线网络线缆,用于连接交换机、路由器和服务器进行组网。不需要外部电源,不内置电子元件增强信号,仅通过两根导线绞合在一起形成双轴电缆。DAC不仅满足高速互联的需求,同时几乎不消耗任何电力,也不产生任何热量,其功耗几乎为零,同时成本相比“光模块+光纤”更低,适用于超短距离连接,但缺点容易受到电磁干扰的影响。 有源铜缆:在DAC基础上加入信号调节芯片后,即形成有源铜缆,分为ACC和AEC。ACC是一种在线缆的接收端(Rx端)加入一定能力的线性Redriver来提供信号的均衡和整形的技术,他利用芯片来补偿无源铜缆DAC的高频损失,更像是通过放大拟信号的有源电缆,将传统铜缆的传输距离扩展到更长的应用场景范围。 AEC(Active ElectricalCable,有源电缆)是有源铜缆的细分种类,AEC通过在线缆两端加入Retimer芯片实现对信号的放大和再生,相比传统的无源直连铜缆DAC的传输距离更长,同时大幅优化了信号质量。 图2:AEC、DAC、ACC方案对比 2、GB200大量应用铜连接方案,AI推动高速铜缆需求高增 2.1、ChatGPT及DeepSeek掀开AI大模型浪潮,算力是数字经济的核心生产力 ChatGPT掀起生成式AI浪潮,国内外AI大模型竞争依旧激烈且创新不断。 OpenAI、谷歌、Meta、Anthropic等科技公司持续推出新模型及不同功能版本,持续引领潮流。GPT-4o在多模态融合上表现出色;谷歌Gemini系列推出不同版本,满足从移动端到数据中心的多元需求;Meta Llama3开源激发了全球开发者热情; Anthropic Claude、xAI Grok等也各有亮点。AIGC产业的发展来自算法、数据及算力的综合推动,大模型引起社会高度关注。AIGC代表式产品ChatGPT文本生成能力强大,GPT-4点燃人工智能发展浪潮。 图3:AI大模型发展愈演愈烈 图4:GPT-4点燃人工智能发展浪潮 国内DeepSeek成立不到两年颠覆开源大模型格局,性能对标海外。 DeepSeek成立于2023年5月,是一家致力于实现通用人工智能的创新型科技公司,专注于开发先进的大语言模型和相关技术。DeepSeek由知名量化资管巨头幻方量化创立,幻方量化创始人梁文峰在量化投资和高性能计算领域具有深厚的背景和丰富的经验。 2024年5月,DeepSeek-V2发布,成为全球最强开源通用MoE模型。DeepSeek独创Attention结构MLA(一种新的多头潜在注意力机制)、稀疏结构DeepSeek-MoE在大模型竞技场(LMSYS)位列全球开源模型第一名,依靠创新结构,将推理成本降低近百倍。 2024年12月,DeepSeek-V3发布,性能对齐海外领军闭源模型。该模型在多项评测集上超越了阿里Qwen2.5-72B、Meta的Llama-3.1-405B等其他开源模型,并逼近GPT-4o、Claude-3.5-Sonnet等顶尖闭源模型。据官方技术论文披露,V3模型的总训练成本为557.6万美元,对比GPT-4o等模型的训练成本约为1亿美元。 2025年1月,DeepSeek-R1发布,性能对标OpenAI-o1正式版。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAI-o1正式版。同时DeepSeek开源R1推理模型,允许所有人在遵循MITLicense的情况下,蒸馏R1训练其他模型。 图5:Deepseek模型迭代及发展历程 AI大模型的训练所需要的算力呈指数级提升。随着生成式人工智能(AIGC)技术的普及和发展,基于“大数据+大计算量”模型的新应用不断涌现,对算力系统的需求日益增加,反映了人工智能领域计算需求的增长速度远远超出摩尔定律的预测。 图6:大模型训练所需算能力随参数呈指数级提升,必须在云端进行 AI服务器出货量加速扩张。根据TrendForce,预计2023年AI服务器出货量为118.3万台,占整体服务器比重为9%左右,2024年AI服务器出货量将再次增长27%,达150.4万台,且往后展望至2026年出货同比增速达25%。 Precedence Research预计2024年全球生成式人工智能市场规模为258.6亿美元,预计到2034年将达到10050.7亿美元左右,从2025年到2034年的复合年增长率为44.20%。使用高分辨率、文本到图像和文本到视频转换等技术推动了对生成式AI的需求。此外,对工作流程现代化(包括跨行业的自动化和远程监控)的需求不断扩大,将推动生成式AI市场的增长。 图7:预计2026年全球AI服务器销量达到2369千台(单位:千台) 图8:预计2034年生成式AI市场规模达到10050.7(单位:十亿美元) 2.2、英伟达在GB200NVL72中广泛使用铜互连技术 带宽升级助力数据中心突破算力瓶颈。带宽指通信线路或设备能够传输信号的频率范围,高带宽通常意味着设备能够在更高频率下传输更多信息。为了满足生成式AI应用和AI模型训练对算力资源的需求,数据中心通过在多个互联计算节点间分配工作负载来满足这些新需求。由于单个分布式任务的运行时间受到最慢节点的限制,因此设备之间的高效互联成为突破算力系统瓶颈的关键。 图9:以太网速率高速发展 图10:全球数据中心交换机端口速率结构 PCIe速率提升满足高带宽需求。PCIe于2003年推出,其提供了一个更高效、更高带宽的接口。随着时间的发展,PCIe已经成为现代计算平台的标准,从最初的1.0版本发展到了如今的6.0版本。 PCIe 1.0:提供2.5 GTps的单向带宽,每个通道的最大传输速率为250 MB/s。 PCIe 2.0:带宽翻倍至5.0 GTps,每个通道的最大传输速率为500 MB/s。 PCIe 3.0:再次翻倍至8.0 GTps,每个通道的最大传输速率为1 GB/s,同时提高了编码效率,从8b/10b编码改为128b/130b编码。 PCIe 4.0:带宽达到16.0 GTps,每个通道的最大传输速率为2 GB/s。 PCIe 5.0:最新版本,带宽为32.0 GTps,每个通道的最大传输速率为4 GB/s。 PCIe 6.0:带宽达到64.0 GTps,每个通道的最大传输速率为8 GB/s,引入了PAM4调制技术,进一步提高传输效率。 预计PCIe7.0将于2025年推出,其单通道速度可能达到128GT/s。 图11:预计PCIE 7.0将于2025年推出,单通道速率达到128GT/s 铜连接方案在互联市场广泛应用。铜连接产品在数据中心高速互联产品中一直扮演着重要角色,特别是在服务器内部的短距离传输场景下,铜连接对于散热效率和信号传输以及成本方面有着显著的优势,因此铜互连仍是当下以及未来许多应用中最具成本效益的解决方案。下面我们对NVIDIA下一代GB200网络架构对铜缆连接和光模块的需求量进行分析: 铜缆连接在224GB交换机时代具有经济高效的优势。铜缆连接在交换机和服务器高密度集群化的趋势中具有性价比和功耗优势,铜缆连接有望逐步成为224Gb/s交换机时代的最佳解决方案。NVIDIA GB200解决方案的一个重要变化在于交换机和计算节点在单个机柜内的互连,交换机的内部连接采用铜缆连接,而不是之前的PCB-光模块-电缆连接。GB200互连分为三大类: (1)GB200 NVL72机柜间连接(外接电缆):大型数据中心往往需要大量的机柜进行并行计算,如果需要对外联网,则通过TOR交换机用DAC/AOC电缆连接(如图12所示)。对于大量的机柜,外部互连需要安装在机柜上方的布线设备中进行有序连接,电缆长度往往很长,铜缆在2到4米以上后无法满足连接要求,因此长距离互连主要使用光纤电缆进行连接,铜电缆在这个环节中不能完全取代光纤电缆。 图12:机柜之间的NVIDIA GB200 NVL72互连图 (2)GB200 NVL72单机柜连接(机柜内部电缆)——全部替换为铜缆:图13中,8个计算节点和9台交换机通过图13黄色区域的铜缆内部连接,铜缆背板通过PCB背板-光模块-线缆连接取代了以前使用的TOR交换机和计算节点。对于单通道224GB/s的新一代交换机,800G/1.6T光模块的功耗通常在16W以上,如果GB200 NVL72的连接方案基于之前的光模块连接,将造成高功耗问题。铜缆连接比光模块消耗更少的功率,更具成本效益。 图13:NVIDIA GB200 NVL72单机箱内部的交换机和计算节点连接示意图 图14:NVIDIA GB200 NVL72铜缆背板和背板连接器示意图 (3)NV开关内部–使用铜线