您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:电子行业周观点:AI agent时代算力消耗陡增,看好算力基建机遇 - 发现报告

电子行业周观点:AI agent时代算力消耗陡增,看好算力基建机遇

电子设备2025-03-08郑震湘、佘凌星国盛证券A***
AI智能总结
查看更多
电子行业周观点:AI agent时代算力消耗陡增,看好算力基建机遇

Manus拆解、解决一次复杂任务或将消耗百万token,算力需求陡增,看好算力基础设施产业链。Manus采用Multi-Agent架构,在独立的虚拟环境中运行,搭建了思维与行动之间的桥梁,不仅思考,更能交付结果,根据差评x.pin公众号,Manus拆解、解决一次复杂任务需要消耗的token,可能是百万乃至更高的数量,算力需求陡增,我们看好算力基座中芯国际以及国产算力配套产业链迎来历史性机遇。 Manus催生更多垂直场景的AI Agent,加速端侧AI发展。Manus采用独特的Multiple Agent架构,通过虚拟机运行多个子Agent,实现任务的拆解、工具的调用以及任务的闭环交付。随着部分技术的开源,或将降低开发门槛,催生更多垂直场景的AI Agent。这将进一步激发AI应用层的创新活力,有望加速端侧AI的落地,驱动新一轮消费电子产品换机周期,也为智驾这个新AI终端注入成长动能。AI眼镜作为个人AI Agent的理想形态,随着未来放量,我们看好相关国产供应商在SoC环节的布局和卡位。 国内模型创新迭出,进展连连,有望推动端侧AI发展,并进一步反哺算力需求。阿里开源通义千问QwQ-32B推理模型,仅用320亿参数,便与目前公认的开源最强6710亿参数的满血版DeepSeek-R1(370亿被激活)相媲美,QwQ-32B能够直接在搭载消费级显卡的电脑或者Mac上体验满血版性能。我们认为,国内模型创新迭出,进展连连,有望推动端侧AI发展,并进一步反哺算力需求。 博通AI收入超预期,再获两位ASIC客户,定制化需求火热。博通FY25Q1 AI收入为41亿美元,同比增长77%,AI收入超出38亿美元的指引,公司指引FY25Q2AI收入将增长至44亿美元,同比增长44%,公司重申三个CSP客户2027财年SAM为600亿美元至900亿美元的预测,公司此前已与另外两家CSP进行了深入合作,有望在今年完成他们的XPU流片,目前又有两家CSP选择博通开发定制加速器来训练他们的下一代前沿模型,定制化需求火热。从台股来看,智邦科技、台光电子25年2月营收增速依旧亮眼,杰文斯悖论即技术效率的提升往往会导致资源使用总量的增加,而不是减少,ASIC拉货动能足,推理需求保持高速增长。 存储:AI基础建设催生高需求,存储渐入涨价周期。1)供给端:存储三巨头(三星、SK海力士、美光)持续缩减中低端存储产能,据TrendForce数据,2025年Q1 NAND Flash晶圆投片量同比减少18%,供给能力下降。2)需求端:云厂商高资本开支维持,AI基础建设催生存储产品高需求,以AI服务器为例,单台服务器存储配置从8TB跃升至32TB,智能手机库存去化、AI及DeepSeek效应带来的需求增长。产能缩进+需求增长双管齐下,存储产品有望进入涨价周期,看好国产存储厂商受益产业链量价齐升。 周观点:相关标的见尾页。 风险提示:下游需求不及预期、研发进展不及预期、地缘政治风险。 重点标的 股票代码 1、Manus算力消耗量陡增,看好国产算力迎历史性机遇 Manus采用Multi-Agent架构,AI agent的GPT时刻已至。Manus作为一款通用AI智能体,搭建了思维与行动之间的桥梁,不仅思考,更能交付结果,这种一步解决任何问题的设计理念使Manus区别于传统的AI工作流程,更易于普通用户使用,在GAIA测试里表现亮眼。Manus的架构设计为Multi-Agent,在独立的虚拟环境中运行。在典型的Multi-Agent架构中,各个智能体具有专业化的能力和目标,一个系统可能包含专注于内容摘要、翻译、内容生成等不同任务的智能体。 图表1:Manus在GAIA测试里表现亮眼 图表2:多代理架构运转逻辑 图表3:与传统AI的差异对比 Manus拆解、解决一次复杂任务或将消耗百万token,算力需求陡增,看好算力基础设施产业链。创始人表示由于服务器容量有限,因此采用邀请制。因为是在云端的虚拟机运行,所以在这个期间,我们哪怕把窗口关掉,它也会自己照常工作,甚至还可以同时开多个任务,多会话进行,同时,由于Manus会一直检查自己上一步的操作,所以遇到这种服务器冲突问题它也能自己解决,直到成功为止,这种模式下算力的消耗可见一斑,根据差评x.pin公众号,Manus拆解、解决一次复杂任务需要消耗的token,可能是百万乃至更高的数量,算力需求陡增,我们看好算力基座中芯国际以及国产算力配套产业链迎来历史性机遇。 催生更多垂直场景的AI Agent,加速端侧AI发展。不同于传统AI助手,只能进行单线程处理、缺乏工具调用能力,Manus采用多智能体(Multi-Agent)协同架构,通过虚拟机运行多个子Agent,实现任务的拆解、工具的调用以及任务的闭环交付,构建了“规划-执行-验证”全流程,涵盖数据分析、跨平台操作等核心能力。这意味着智能体技术正式迈入“多智能体协同”阶段,促使系统级AI Agent变成可能。此外,Monica团队宣布将部分技术开源,或将降低开发门槛,催生更多垂直场景的AI Agent。我们认为,这将进一步激发AI应用层的创新活力,推动AI技术在各个领域的深入应用,有望加速端侧AI的落地,驱动新一轮消费电子产品换机周期,同时也为智驾、AI眼镜等新AI终端注入成长动能。 智能座舱将向L3级别((AI Agent)进化。2025年3月3日,吉利宣布完成全域AI智能化布局,AI将深入架构、动力、底盘、座舱等核心领域,赋予整车更高的智能水平,这意味着车辆将有望实现L3级别,即具备执行任务能力的AI Agent。当前的智能驾驶主要依赖外部传感器(如摄像头、激光雷达)进行感知,以确保基本的行驶安全。然而,在AI Agent时代,智驾系统可以整合车内外信息,进行更综合的决策;在智能座舱领域,在吉利与DeepSeek-R1的演示中,智能座舱能够理解车主“(我要休息一会”这类模糊指令,并自主调节座椅、空调、闹钟等,展现出L2级别的推理能力。未来,结合车内摄像头等多模态感知,智能座舱将进一步向L3级别进化,根据乘客状态自动调整座舱环境。 图表4:吉利关于“AI+车”技术基座的思考 最前沿的大模型对于车端的赋能还有较大想象空间。和通用基座模型可达10亿级别的数据量相比,目前汽车行业内的智驾大模型数据量最多为1000万视频片段,在数据维度上还有较大差距;在对通用障碍物的识别上,行业模型可以识别的种类目前可达“(百”量级,而通用模型则可以识别超过“十万”的障碍物。因此,如果仅依赖车企自身的行业模型,智能汽车的AI Agent之路可能遥遥无期,必须引入通用模型的能力,实现量级上的突破。我们认为,Manus的发布有望加速智能汽车的AI Agent进程。 图表5:汽车厂商的垂直智驾模型和AI基座模型的各项对比 眼镜独特的硬件特性和多模态AI功能的结合,是个人AI Agent的理想形态。首先,眼镜作为轻便且便携的可穿戴装置,拥有较高的舒适度与便携性,使用户能够随时随地与AI无缝交流,同时不受时间和空间的束缚;其次,当前技术已支持眼镜集成视觉、听觉、触觉等多模态AI功能,从而实现更自然直观的交互。智能眼镜能利用摄像头捕捉图像、麦克风识别语音,并结合AR技术呈现虚实交融体验,满足用户多样化需求,是个人AI Agent的理想形态。2025年预计为AI智能眼镜的“(爆发元年”,雷鸟、小米、华为、字节等在内的国产厂商,以及Meta和Snap两大国际巨头跑步进场。根据WellsennXR预测,2025年全球AI智能眼镜出货量将达到550万副,随着入局者增多,AI售价降低,有望打开消费市场。 图表6:全球AI智能眼镜年度销量及预测(万副) 主板上的处理器SoC价值量占比最大,SoC厂商将深度受益于AI眼镜的放量。根据Wellsenn XR对Ray Ban Meta智能眼镜BOM表的拆解数据,我们看到在主板上,处理器SoC和存储器分别为55美金和11美金的ASP牢牢占据了整个主板较大部分的价值量,占比分别达到62.1%和12.4%,两者合计占比高达74.5%。在主板之外,合计38美金的价值量中,雷朋提供的镜片/镜架和索尼提供的摄像头芯片分别拥有13美金和9美金的ASP,占比分别为34%和24%。其他器件如喇叭、麦克风、触摸条、电池的价值量分别有3、2.5、2.5、1.5美金,占比分别为7.9%、6.6%、6.6%、3.9%。 综合主板以及主板之外所有器件的价值量分布来看,主板上的处理器SoC和存储器,以及主板之外的镜片/镜架和摄像头芯片,这4类器件的价值量最为靠前,因此我们认为在智能眼镜产业链上,处于以上4个器件环节的相关厂商在未来下游需求起量时将最为受益,我们看好相关国产供应商在以上环节的布局和卡位。 图表7:Ray Ban Meta智能眼镜主板BOM 国内模型创新迭出,进展连连,有望推动端侧AI发展,并进一步反哺算力需求。阿里开源通义千问QwQ-32B推理模型,仅用320亿参数,便与目前公认的开源最强6710亿参数的满血版DeepSeek-R1((370亿被激活)相媲美。甚至,QwQ-32B在多项基准测试中全面超越o1-mini,QwQ-32B的得分介于R1和o3-mini之间,但成本却只有它们的十分之一,并能够直接在搭载消费级显卡的电脑或者Mac上体验满血版性能,上上代的3090 Ti输出速度就可达30+token/s,本地部署友好,在Hugging Face上开源的QwQ-32B版本,以Q4量化精度为例,大小不到20GB,Hugging Face上还有从2位一直到8位不同的版本,最小仅需不到13GB,普通的办公电脑都能运行得起来。我们认为,国内模型创新迭出,进展连连,有望推动端侧AI发展,并进一步反哺算力需求。 图表8:QwQ-32B基准测试表现 2、博通AI收入超预期,ASIC需求火热 博通AI收入超预期。博通FY25Q1收入达到创纪录的149亿美元,同比增长25%,合并调整后EBITDA再次创下101亿美元的纪录,同比增长41%,其中,半导体收入为82亿美元,同比增长11%,AI收入为41亿美元,同比增长77%,AI收入超出38亿美元的指引,主要系面向AICSP的网络解决方案出货量增加,公司指引FY25Q2AI收入将增长至44亿美元,同比增长44%。 图表9:博通FY25Q1 highlight 博通再获两位ASIC客户,定制化需求火热。公司正在两个方面加大研发投资:1)打造下一代加速器,正在流片业界首款封装3.5D 2nm AI XPU;2)为CSP客户扩展50万个加速器的集群,公司已将现有Tomahawk站点的RAID X容量增加了一倍,为了使AI集群能够在以太网上扩展到100万个XPU,还开发了下一代100 TB Tomahawk 6交换机,将在未来几个月内向客户交付样品。公司三个CSP客户各自在2027年底前将XPU集群增加到100万个,公司重申这三个CSP客户2027财年SAM为600亿美元至900亿美元的预测,公司此前已与另外两家CSP进行了深入合作,有望在今年完成他们的XPU流片,自上次财报电话会议以来,又有两家CSP选择博通开发定制加速器来训练他们的下一代前沿模型,定制化需求火热。 ASIC、推理需求拉货动能足,AI推理服务器占比将逐步接近50%。TrendForce集邦咨询指出,在DeepSeek驱动下,CSP业者预计将更积极发展成本较低的自有ASIC方案,并把重心从AI训练转往AI推理,预估将逐步推升AI推理服务器占比至接近50%。 台股方面,智邦科技25年2月营收129亿新台币,同比+141%,环比+3%,公司24年11月以来月度营收同比增速均超80%,实现迅猛增长;台光电子25年2月营收70亿新台币,同比+87%,环比+1%,24年全年业绩增长迅猛;贸联25年2月营收50亿新台币,同比+30%,环比-10%,连续三个月同比增速超30%。杰文斯悖论即技术效率的提升往往会导致资源使用总量的增加,而不是减少,