您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:博通电话会上Hock关于网络互联的评论导致了美股几个CPO标的盘后下跌 - 发现报告

博通电话会上Hock关于网络互联的评论导致了美股几个CPO标的盘后下跌

2026-03-06未知机构张***
博通电话会上Hock关于网络互联的评论导致了美股几个CPO标的盘后下跌

CPO会在合适的时间到来,不是今年,也许明年也不会,但终究会到来。 ” Hock核心发言关于2027年AI芯片超1000 亿美元收入及云厂商投资回报预期1000亿美元收入均为芯片相关 博通电话会上,Hock关于网络互联的评论导致了美股几个CPO标的盘后下跌:“即便我们在CPO领域处于领先地位,你也没必要去追逐那些所谓光鲜亮丽的CPO。 CPO会在合适的时间到来,不是今年,也许明年也不会,但终究会到来。 ” Hock核心发言关于2027年AI芯片超1000 亿美元收入及云厂商投资回报预期1000亿美元收入均为芯片相关,包含XPU、交换芯片、DSP等硅含量产品,不含其他非芯片业务。 公司客户以LLM研发、平台打造企业为主(含部分超大规模云厂商),其对训练、推理端计算能力需求均持续高增,推理端需求超预期,且客户均在布局定制加速器,驱动芯片需求持续提升,不受市场对云厂商短期投资回报悲观情绪影响。 关于客户自有工具(COT/CLT)对公司TPU/XPU市场份额的影响及技术优势扩大客户自研芯片面临硅片设计、先进封装、集群组网等多重技术挑战,且需面对英伟达等头部企业的竞争,自研芯片难以达到行业顶尖水平,短期内无法从公司抢走有意义的市场份额,预计多年内无实质性竞争。 公司在芯片大规模量产、良率控制、上市速度上具备行业领先能力,且在硅片设计、IP、工艺技术等方面领先行业12-18个月;未来将持续依托技术积累、量产能力及与客户的深度合作,进一步扩大技术差距。 关于AI网络收入占比提升及长期结构2026财年第二季度AI源头信息加微信WUXL7713网络收入占比提升至40%的核心驱动:Tomahawk6 交换机为行业唯一100太比特/秒产品,获超大规模云厂商青睐;公司是唯一能提供1.6太比特DSP的厂商,光收发器带宽扩展需求推动相关产品增长,AI网络组件增长速度甚至超过XPU。 长期来看,AI网络收入占AI总营收比例将稳定在**33%-40%**之间,2027年Tomahawk7推出后将持续维持 通用GPU为“一刀切”设计,针对稠密矩阵乘法优化,在专家混合、推理等工作负载中效率低于定制化XPU;XPU可根据客户LLM特定工作负载定制,适配训练、推理、预填充、后训练等不同场景,灵活性更高。 目前公司五大客户均在推进XPU定制化路线,XPU将逐步成为AI加速器的主流选择,GPU与定制硅的组合倾斜。 关于机架产品对毛利率的影响机架产品不会对源头信息加微信ss62897公司综合毛利率产生实质性负面影响,公司AI 业务的良率、成本控制已达到成熟水平,AI业务盈利模型与其他半导体业务保持一致,无需担忧毛利率大幅下滑。 2027年公司AI芯片对应的计算能力需求接近10吉瓦,不同客户每吉瓦对应的芯片收入存在差异,但整体与市场测算的“每吉瓦200亿美元”相近,支撑1000亿美元以上AI芯片收入目标。 关于2026-2028年供应链保障及2028年增长供应链保障源头信息加微信:WUXL7713措施:提前锁定先进晶圆、基板等核心组件产能,与核心供应商建立 深度合作,且基于与客户的多年战略协议,提前预判需求并进行产能投资,是行业首个锁定2028年核心组件产能的企业。 2028年增长:基于已锁定的供应链产能及客户长期战略需求,2028年AI业务具备持续增长的基础。 关于Anthropic项目芯片与机架占比及客户分散化后的市场份额保障未披露Anthropic项目中芯片与机架的具体收入占比,但明确整体盈利及毛利率不受影响。 公司目前仅6家核心AI客户,均将定制硅业务视为战略布局(非可选项),客户对LLM发展、推理产品化的产能规划清晰,且公司与客户为多年深度战略合作,能精准把握客户需求,保障市场份额;而GPU、云服务等为客户的交易性、可选性需求,不影响公司核心定制硅业务。 关于直连铜缆技术及以太网发展路线 强调直连铜缆的原因:在纵向扩展(机架、集群内)场景中,直连铜缆具备低延迟、低功耗、低成本优势,公司技术可将直连铜缆带宽从100G推进至200G甚至400G,2028年可实现400G机架内铜缆传输;CPO技术虽为公司领先布局,但目前并非市场刚需,将在合适的时间落地。 以太网发展:以太网是云领域事实标准,已成为行业横向扩展的首选协议;目前行业正推进以太网在纵向扩展的应用,公司与多家超大规模云厂商、半导体同行均认可以太网纵向扩展的路线,且多个XPU设计项目均要求支持以太网纵向扩展。 关于XPU在训练、推理场景的应用及相对GPU的优势客户初期多从推理场景切入使用XPU(推理计算量更小、易落地),目前多数客户已将XPU 应用于训练场景,且部分成熟客户开始每年同时开发训练、推理专用XPU,实现场景专业化。 XPU相对GPU的核心优势:在推理、专家混合等工作负载中效率更高,且成本、功耗更低;可根据客户LLM需求定制,适配性更强,同时支持训练、推理场景,具备互换性。 客户专业化开发XPU的原因:LLM竞争激烈,客户需在训练下一代超智能LLM的同时,同步投资推理芯片及产能,避免推理产品化滞后导致失去市场优势。 关于业务可预见性提升及OpenAI客户的需求拐点可预见性提升原因:与核心客户合作超2年,客户对与公司联合开发的XPU 性能、适配性信心提升,且客户均从长期战略角度规划XPU部署,产能、产品路线清晰;公司仅6家核心客户,便于深度对接需求。 OpenAI需求:2027年需求超1吉瓦,2029年协议总需求达10吉瓦,2028年将出现需求陡峭拐点,这是客户长期战略规划的既定结果,OpenAI将XPU部署纳入其LLM发展及货币化的长期路线图。