AI智能总结
2026年通信行业年度投资策略 通信团队证券分析师:马军SAC NO:S11205230900032026年01月06日 01十五五开年,通信业新身份 通信行业正从传统管道支撑跃升为赋能新质生产力的核心引擎 适度超前的数字基础设施建设,全球积极投入数字化转型 在2010年至2020年间,全球ICT投资复合增长率达4.3%,领先GDP复合增长率1.5%。2020年,全球受疫情影响,经济增长速度明显减缓,但全球各国坚持投资数字基础设施,保持了持续增长,复合增长率达6.7%。进入后疫情时代,各国的数字基础设施建设的步伐明显加快,全球经济快速复苏(GDP复合增长率达4.3%),并构建了面向未来的经济韧性。IDC数据显示,2023年全球ICT市场总投资规模接近4.9万亿美元,并有望在2028年增至6.6万亿美元,五年复合增长率(CAGR)为6.3%。 4G/5G驱动ICT融合趋势下的资本开支演进 空天地一体化组网 NTN融合,低轨/超低轨卫星与地面网络融合投资 毫米波与亚太赫兹 通感一体化 十五五开局之年,通信业新身份 立足“十五五”规划开局之年,从“万物互联”向“全域智联”演变,从5G向5G-A/6G过渡,从通用算力向智能算力转型,从覆盖扩展向深度赋能和集约高效利用转变,算力网络下沉重塑传统运营商的网络价值,低轨卫星互联网星座组网打破地理局限。“十五五”开局之年,通信行业正从传统管道支撑,跃升为赋能新质生产力的核心引擎。 AI推理奇点(推理流>训练流) 1 •2025-28年推理年复合增速将达到训练的近4倍,2028年推理算力规模将超过训练算力规模。通信网络从“传输管道”向“实时智能节点”进化。 商发成熟奇点(低轨星座规模化) 2 •国产低轨卫星进入“航班化”发射,12月发射进程加速。 估值重塑奇点(产业数字化收入>20%) 3 •运营商数字化转型(DI)收入成第一驱动力。ARPU值止跌企稳,估值逻辑由“公用事业”转向“科技成长”。 推动算力超前建设,航天加速落地 算力基建投入 空天地一体网 绿电与算力融合 数据要素流通 AI赋能新质产力 借助5G-A大带宽、低时延特性,推动云游戏、工业物联网、RedCap模组、通感一体及XR等新兴应用场景发展,带动上游元器件产业链升级。 加大对自主可控人工智能芯片、光电混合计算、全光交换网络等核心技术的研发与部署,构建高性能、低延迟的超大规模智算集群,夯实数字中国底层支撑。 推进新能源集成发展,通过绿证绿电交易和绿电直连机制,实现算力中心能源结构绿色化转型,提升算力网络可持续发展能力。 加快卫星互联网星座部署与低空智能网联协同建设,实现通信容量提升与时延降低,推动手机直连卫星和智能驾驶等应用落地。 构建高速互联的数据基础设施,依托运营商及数据平台、硬件、安全企业,促进政务与产业数据高效流通与安全利用。 02AI基建-自主可控,开源生态 以国产算力为核心5G-A与全光网络为纽带 算力需求正成为ICT市场增长主要推动力 •根据IDC2025年2月预测,2028年中国ICT市场规模接近7517.6亿美元,五年复合增长率(CAGR)为6.5%。其中,消费端在政策刺激与新兴技术产品推动下迎来复苏,智能终端需求有所增长。 图表:中国ICT市场支出预测,2023-2028年(百万美元)•其中,2024年中国企业级ICT市场规模约2693.6亿美元,同比增长11.7%,由于AI及算力部署、云计算、出海等领域投资不断增加,预计2024-2028年以CAGR 9%增长至接近3600亿美元。算力需求拉动数据存储和算力基础设施投资,AI驱动通算中心逐步向智算中心升级,IDC预计2023-2028年中国企业级服务器和存储投资CAGR达到24.3%。 中国企业级ICT市场规模中国企业级服务器和存储投资中国IaaS支出增速2024-2028 CAGR2023-2028 CAGR2023-2028 CAGR AI大模型出现后,算力及网络需求倍数提升 •大模型和AIGC高速演进,高性能计算行业面临迫切的更高效率的算力需求 •大模型训练的算力当量正在进一步增大,从GPT-3到GPT-4算力当量增长了68倍。算力当量越大,交叉熵越小,模型能力越强。 •数据中心为训练AI模型产生的能耗将为常规云工作的三倍,美国数据中心电力需求以10%复合增速增长。 产业趋势:国内外龙头公司算力开支持续提升 •国内方面:运营商持续加大智能算力资本开支情况。AI应用催化,互联网大厂资本开支加速增长,重心向算力方向转移。其中,国内互联网大厂包括腾讯、阿里等季度资本开支均出现同比大幅增长,且结构重心向AI领域倾斜。2025年上半年,中国电信自有智算规模达到43 EFLOPS,新增8 EFLOPS。中国移动自建智算规模33.3 EFLOPS,新增4.1 EFLOPS。中国联通全网智算算力达到30EFLOPS。 •海外方面:主要云厂商公布25年Q3总计Capex约1119亿美元,同比增加78.8%,环比增加17.3%。 产业趋势:推理需求驱动IDC向AIDC演进 •在生成式AI及大模型的需求驱动下,客户算力需求由传统CPU通用算力向GPU、TPU等智能算力演进。根据客户和智算需求可大致分为三类: 训推一体 普智一体 纯智算 主要面向私有云和极低时延的端侧推理,主要应用于央国企、政府部门和中小型产业数字化客户,包括烽火等,机柜功率在2KW-8KW或35KW以上,通常以风冷为主,少许配置液冷形式。 主要面向公有云和互联网,比如运营商公有云、字节跳动等,机柜功率在8KW-15KW或35KW以上,考虑成本通常采用以液冷为主的风液混合形式; 主要面向大模型的通用训练,比如华为盘古大模型等,机柜功率普遍在35KW以上,平均功耗较高通常采用全液冷形式; 辅助配套 Scale Out Scale up 大规模的无阻塞网络是构建AI大模型的基础设施,大模型驱动大容量交换芯片加速迭代 超节点新型需求,光铜并存,包括LPO、CPO、AEC、PCB、交换机及多模光纤等需求兴起 包含液冷、电源等功耗相关方面的升级 产业趋势:算力链正向循环向国内渗透,拉动国产算力链需求 •目前,AI推理领域正迎来超预期的需求增长,AI推理需求不仅正在迅速放量,而且仍处于上升通道的早期,未来对市场规模和产能配置的重估,可能带来利润的系统性上修。结合6月Marvell对数据中心Capex与ASIC预期指引上修,我们认为海外算力产业链正在形成“技术迭代成本降低——应用推广——推理需求爆发——token数增长——数据增长模型加速迭代”的正向循环路径。海外AI需求尤其是新增企业需求快速增长,Token量呈现加速增长态势,持续推动AI Capex保持高投入。中长期看AI应用仍处于极早期,作为算力集群拓展的基础组件,光模块行业仍然具备高增长能力。 •华为董事、ICT BG CEO杨超斌25年3月4日表示,在过去8个月里面,中国市场AI产生的Token所带来的流量增长了33倍,其中15倍是来自付费的Token。我们认为,在美国芯片安全法案、H20约谈等一系列因素催化下,包括华为昇腾、寒武纪等国产AI算芯片有望借此加速国产化进程,长期确定性增长主线更加明确。 资料来源:Google、IDC,华西证券研究所 大规模的无阻塞网络是构建AI大模型的基础设施 •大规模的无阻塞网络是构建AI大模型的基础设施:面对千亿、万亿参数规模的大模型训练,仅仅是单次计算迭代内梯度同步需要的通信量就达到了百GB量级。此外还有各种并行模式、加速框架引入的通信需求,使得传统低速网络的带宽远远无法支撑GPU集群的高效计算。因此要充分发挥GPU计算资源的强大算力,必须构建一个全新的高性能网络底座,用高速网络的大带宽来助推整个集群计算的高效率。 •大规模AI训练集群架构中,GPU之间的通信实际上由多种形式的网络来承载的:机间网络(网卡+交换机)与机内网络(NVLink/NVSwitch网络、PCIe总线网络)。•图表:NVSuperPOD架构•图表:网卡+交换机架构 大模型驱动大容量交换芯片以前所未有的速度迭代 •大模型训练使得算力网络往超大规模、超高带宽演进,催生高速率交换芯片快速演进及商用化:AI训练除了需要更高算力之外,高性能网络也是必不可少。对于大模型,单次的参数同步量一般都在百MB~GB的量级,参数量巨大。•传统电交换芯片直接决定整机的交换容量、端口速率等核心性能指标,AI驱动高速率交换芯片逐渐成为主流。•大模型快速发展背景下,传统交换机芯片以前所未有的速度加速商用:2022年8月16日,博通发布了业内首款51.2T容量的交换芯片Tomahawk5。•2023年3月15日宣布其Tomahawk 5系列现已批量出货,从最初的样品到量产部署仅花七个月时间,对于博通交换芯片产品线来说是前所未有的,证明AI大模型正在快速推进相关技术迭代。 高速光模块与全光网(OTN)的业绩兑现 •根据市场研究机构Cignal AI报告,随着800G增长达到顶峰,云服务商正向单通道200G的1.6T方案过渡,高速数通光模块的市场规模预计将从2024年的约90亿美元扩大到2026年的近120亿美元。 •根据机构预测,2024年,800G光模块需求同比激增250%达86亿美元。研究机构Cignal AI最新报告显示,2025年800GbE光模块出货量将增长60%,400/800ZRx系列有望突破60万件。数据中心互连应用推动可插拔相干模块需求激增,1.6T光模块将于下半年开始规模化部署,但年内总量将低于100万件。•图表:数据中心交换机端口速率(前端&后端) AIDC辅助——散热 •伴随单机柜功率的不断提升,传统风冷系统也逐渐无法满足散热需求,或相应更加节能高效的散热技术方案逐渐铺开:从早期的封闭冷/热通道、机柜循环制冷、热风抽取冷却、到背板热交换、间接蒸发冷却,再到液冷方案中的喷淋液冷、冷板液冷以及浸没液冷。冷服务器生态初步形成,大多以间接冷板为主。浸没式液冷考虑其对服务器主板等技术革新需求以及下游厂商机房业务部署的差异性,规模化起量仍需要时间。•目前国内液冷服务器厂商主要包括华为、曙光、神威蓝光、浪潮等,海外液冷服务器厂商包括戴尔、惠普、思科、SGI、BULL、Cray、富士康、超微、Nortech(浪潮合作)、Iceotop等。此外,相关产业链中,海外产业化液冷方案制造商包括Coolit和Asetek(生产液冷配件厂)、Dynatron、K-computer;直接式液冷方案包括GreenRevolutionCooling和3M(制冷液)等。国内相关企业包括英维克、维谛技术、网宿科技等。 AI相关受益标的 03AI应用-端侧原生,交互重构 AI原生应用与具身智能在5G-A加持下步入全场景商用 AI超级载体雏形已现,未来终端渗透有望从手机端开启 2026年AI手机不再仅是硬件升级,而是以Agent为核心的系统革命。交互从“点对点请求”演变为“后台持续协同”,流量形态从“大包下载”转变为“高频小包心跳流”。 •12月1日,字节跳动联合中兴通讯旗下努比亚推出了搭载“豆包手机助手”的nubia M153,售价3499元。•随后,包括微信、淘宝、携程等先后启动风控机制,当AI握住系统“水阀”,众多超级APP对于流量入口和数据控制权开启保卫战。 •12月9日早间,国内头部大模型厂商智谱AI正式宣布开源其核心AIAgent模型——AutoGLM。这是一个历经32个月研发、具备“PhoneUse”(手机操作)能力的智能体框架。 •此次开源意味着硬件厂商、手机厂商和开发者均可基于AutoGLM,在自己的设备或系统中复现一个能“看懂”屏幕、并模拟真人进行点击、输入、滑动的AI助手。18 资料来源:华尔街见闻、证券时报、快科技,华西证券研究所 具身智能:人形机器人重塑“连接”的量级与深度 具身智能是AI应用的终极形