您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:通信行业周报:Deep Seek的启示,不容忽视的算力前端需求 - 发现报告

通信行业周报:Deep Seek的启示,不容忽视的算力前端需求

信息技术2025-02-15宋嘉吉、黄瀚、石瑜捷国盛证券W***
AI智能总结
查看更多
通信行业周报:Deep Seek的启示,不容忽视的算力前端需求

DeepSeek对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着DS用户数的增长,算力紧缺的现实却不容忽视。事实告诉我们,当用户规模爆发后,推理带来的前端需求将让AI算力的蛋糕越变越大。伴随近期AI Agent等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加AI相关投资,AI应用的需求起量已成为必然趋势。而AI应用起量将带动算力前端需求迅速增长。我们认为,伴随AI应用增长推动计算集群由十万卡向百万卡规模迈进,其中GPU与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。 【前后端适配:性能与数据需求驱动】 以往市场普遍认为计算集群中每块GPU通常配备3个光模块,主要用于横向互联(GPU-GPU)和CPU的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配: NVLink:一种点对点连接接口,目前最高可实现8:1甚至更高的GPU对GPU直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU直连数量越多,导致光模块数量激增。 NVSwitch:基于NVLink的一种硬件交换机,可支持16个甚至更多的GPU之间的高带宽通信,实现“每个GPU到其他所有GP U”之间的直接数据传输,GPU数量越多所需光模块比例越高。 更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高IOPS存储(如HBM+PCle Gen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。 外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。 【应用场景:低延迟、高带宽将成主流】 从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但GPU-GPU通信是主要瓶颈,传统3倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、I oT设备等),需要更强的前端IO和数据传输带宽,导致光模块需求大增。从数据流架构来看,传统HPC或AI训练的数据基本在本地高带宽存储和GPU互联之间传输,对光模块需求较低。而AI推理所需的CD N式数据访问(分布式数据存储+云计算源,AI推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。 我们认为,伴随未来大量AI应用落地,海量的外部数据和AI推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模AI集群的作用将持续扩大。同时AI推理和应用侧对高IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在AI数据中心中的占比可能持续上升。 【AI推理:仍需大规模集群,高速率光模块将逐步普及】 目前超大规模AI推理如大模型API服务、搜索推荐、AI Agent在推理时需要跨多个GPU访问键值缓存,如xAI采用了十万卡集群用于推理、Deep Seek由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。 AI推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延迟的光模块来存储、计算和外部数据源。我们认为,随着AI推理对数据处理要求越来越高,800G、1.6T光模块将逐步普及。另一方面CPO等低功耗、高带宽方案将成为主流。 【数据中心:推理侧需求体量拉动去库存加速】 正如我们上述观点,Deep Seek服务器频繁宕机说明一个问题——目前推理侧机房数量不足以支撑其提供如此多的用户访问并提供推理服务,这反映了AI推理端对机房的大量需求。而上一波云计算浪潮带来的IDC建设高峰留下了大量空置或低租金的存量资源,我们认为随着AI端推理侧的需求增加,将会加速老旧数据中心去库存进程,加速机房改造并挺高资源利用率。 综上,我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN方向网宿科技等。 建议关注:算力—— 光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。 液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、海格通信。 IDC:润泽科技、光环新网、奥飞数据、科华数据、润建股份。 数据要素—— 运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。 风险提示:AI发展不及预期,算力需求不及预期,市场竞争风险。 重点标的 股票代码 1.投资策略:Deep Seek的启示:不容忽视的算力前端需求 本周建议关注: 算力—— 光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。 铜链接:沃尔核材、精达股份。 算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。 液冷:英维克、申菱环境、高澜股份。 边缘算力承载平台:美格智能、广和通、移远通信。 卫星通信:中国卫通、中国卫星、震有科技、海格通信。 IDC:润泽科技、光环新网、奥飞数据、科华数据、润建股份。 数据要素—— 运营商:中国电信、中国移动、中国联通。 数据可视化:浩瀚深度、恒为科技、中新赛克。 本周观点变化: 本周国内数据中心相关标的行情较好,主要由于AI技术迭代加快,叠加海内外均增加AI相关领域投资,继“星际之门”计划后,欧盟宣布投资2000亿欧元用于AI研发,各国进行AI竞赛的现状大幅提振市场对于数据中心建设的信心,其中奥飞数据、光环新网本周分别涨13%、6%;海外方面算力产业链如英伟达等行情回暖,其中英伟达、Meta本周分别涨6.9%、3.1%。 我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时核心建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN方向网宿科技等。 2.行情回顾:通信板块上涨,移动互联表现最优 本周(2025年2月10日-2025年2月14日)上证综指收于3346.72点。各行情指标从好到坏依次为:创业板综>万得全A(除金融,石油石化)>万得全A>中小板综>上证综指>沪深300。通信板块上涨,表现优于上证综指。 图表1:通信板块上涨,细分板块中移动互联表现相对最优 从细分行业指数看;移动互联、云计算、区块链、运营商、量子通信分别上涨8.3%、6.5%、5.9%、5.0%、4.3%,表现优于通信行业平均水平;物联网、卫星通信导航、光通信、通信设备分别上涨3.4%、1.1%、0.3%、0.2%,表现劣于通信行业平均水平。 本周,受益于软件开发概念,拓维信息上涨47.797%,领涨版块。受益于DRG/DIP概念,思创医惠上涨39.634%;受益于Deep Seek概念,日海智能上涨37.422%;受益于阿里巴巴概念,中恒电气上涨31.067%;受益于数据安全概念,ST信通上涨27.476%。 图表2:本周拓维信息领涨通信行业 3.周专题:Deep Seek的启示:不容忽视的算力前端需求 DeepSeek对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着DS用户数的增长,算力紧缺的现实却不容忽视。事实告诉我们,当用户规模爆发后,推理带来的前端需求将让AI算力的蛋糕越变越大。伴随近期AI Agent等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加AI相关投资,AI应用的需求起量已成为必然趋势。而AI应用起量将带动算力前端需求迅速增长。我们认为,伴随AI应用增长推动计算集群由十万卡向百万卡规模迈进,其中GPU与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。 【前后端适配:性能与数据需求驱动】 以往市场普遍认为计算集群中每块GPU通常配备3个光模块,主要用于横向互联(GPU-GPU)和CPU的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配: NVLink互联:一种点对点连接接口,目前可实现8:1甚至更高的GPU对GPU直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU直连数量越多,导致光模块数量激增。 NVSwitch互联:基于NVLink的一种硬件交换机,可支持16个甚至更多的GPU之间的高带宽通信,实现“每个GPU到其他所有GPU”之间的直接数据传输,GPU数量越多所需光模块比例越高。 更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高IOPS存储(如HBM+PCle Gen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。 外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。 【应用场景:低延迟、高带宽将成主流】 从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但GPU-GPU通信是主要瓶颈,传统3倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、IoT设备等),需要更强的前端IO和数据传输带宽,导致光模块需求大增。从数据流架构来看,传统HPC或AI训练的数据基本在本地高带宽存储和GPU互联之间传输,对光模块需求较低。而AI推理需要的CDN式数据访问(分布式数据存储+云计算源,AI推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。 我们认为,伴随未来大量AI应用落地,海量的外部数据和AI推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模AI集群的作用将持续扩大。同时AI推理和应用侧对高IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在AI数据中心中的占比可能持续上升。 【AI推理:仍需大规模集群,高速率光模块将逐步普及】 目前超大规模AI推理如大模型API服务、搜索推荐、AI Agent在推理时需要跨多个GPU访问键值缓存,如xAI采用了十万卡集群用于推理、Deep Seek由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。 AI推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延迟的光模块来存储、计算和外部数据源。我们认为,随着AI推理对数据处理要求越来越高,800G、1.6T光模块将逐步普及。另一方面CPO等低功耗、高带宽方案将成为主流。 【数据中心:推理侧需求体量拉动去库存加速】 正如我们上述观点,Deep Seek服务器频繁宕机说明一个问题——目前推理侧机房数量不足以支撑其提供如此多的用户访问并提供推理服务,这反映了AI推理端对机房的大量需求。而上一波云计算浪潮带来的IDC建设高峰留下了大量空置或低租金的存量资源,我们认为随着AI端推理侧的需求增加,将会加速老旧数据中心去库存进程,加速机房改造并挺高资源利用率。 综上,我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。 同时建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN方向网宿科技等。 4.欧盟将豪掷2000亿欧元用于AI研发 据C114报道,在巴黎举行的AI行动峰会期间,欧盟宣布将投入2000亿欧元用于AI的研发,其中包括将用于建设处理和训练大模型的“AI巨型工厂”的20亿欧元(当前约