AI智能总结
DeepSeek科技和更广义经济的含义是什么? 我们看到DeepSeek的成本创新正在导致更快的GenAI产品创新、可用性和应用渗透……随着我们进入推理能力增强的时代,我们的团队讨论了跨半导体、互联网、软件、能源、硬件和非技术领域的应用用户 要点 DeepSeek模型表明,训练GenAI模型的成本将大幅下降。 ……我们看到,美国科技巨头仍计划在2025/2026年投入~6500亿美元用于总资本支出,这将推动更快的GenAI产品创新和可用性 不断下降的计算成本和不断上升的使用渗透率应该会推动互联网和软件行业(由GOOGL/META/AMZN/MSFT领导)的GenAI ROIC提高 但计算机的历史表明,较低的成本加速了使用和需引发了对与出口管制和LLM商品化相关的半成品的担忧,求 我们还将讨论以下4个议题,包括1)美国LLM领导人的回应2)地缘政治影响3)A S I C4)蒸馏能力 创新找到了一种方法,使得训练和开发LLM的能力成本得以下降:上周,中国初创公司DeepSeek发布了两款模型(DeepSeek-R1-zero和DeepSeek-R1),探索了LLM在没有任何监督数据的情况下发展推理能力的潜力,重点是自我- 通过纯粹的强化学习过程实现进化。值得注意的是,DeepSeek-R1-zero已经达到了与OpenAI-o1(仅使用训练后强化学习)和成本大大降低定价中反映的推断(见附表4用于定价)。 据称DeepSeek-v3(DeepSeek-R1-zero和DeepSeekR-1的基础模型来源)基于280万H800 GPU小时的计算资源进行了估计560万美元的训练(远低于训练Meta Llama 3 405B所需的~30.8百万H100 GPU小时)。虽然实际的训练成本仍有待商榷,但这一水平训练和GPU时间成本降低(由多头潜在注意力机制、多头模型、FP8混合精度训练、GRPO等驱动)将成为推动更快LLM启用和生成式AI产品创新、消费者和企业采用以及生成式AI启用的ROIC和经济生产力提升的重要因素。更多详情请参阅我们的关于GenAI早期采用和扩散赢家的分析,请参见我们在《人工智能变化率的揭示》中的最新工作。 西奥多·J·图恩 摩根士丹利公司 Brian Nowak,CFA Keith Weiss,CFA 北美洲行业视图吸引物 约瑟夫·摩尔 斯蒂芬·C·伯德 Meta A马歇尔 埃里克·伍德林 安德鲁·S·佩尔科 安赫尔·卡斯蒂略 摩根士丹利公司与之合作 摩根士丹利研究覆盖的公司。因此,投资者应该意识到,该公司可能存在利益冲突,可能会影响摩根士丹利的客观性研究。投资者应该考虑摩根斯坦利研究只是他们在做出投资决定时的一个单一因素。有关分析师资格认证和其他重要披露,请参阅本报告末尾的披露部分。 David Arcaro,CFA马特·邦巴塞布伦达·杜弗斯 展品1:我们看到下降的培训/推理成本推动了更快的GenAI 随着我们沿着多年周期前进,我们如何采用和扩散技术 表3:各公司在传达其投资和股权故事方面取得了稳步进展 股票回报率和敞口均存在 资料来源:Eikon,MS Research。过往业绩并不代表未来业绩。显示的结果不包括交易成本 资料来源:摩根士丹利研究;AI暴露和重要性映射的>3,700只股票的完整excel数据库 对科技的影响:下降的培训/推理成本可能导致更快的创新、可用性和采用 ……以及(更大的)推理 机遇在前:我们现在将把注意力转向Interne t、软件、半导体、人工智能能源、网络、硬件和体化AI/TSLA等领域的具体见解,以及从这里关注的4个高层次辩论。 半成品:我们不认为迪普斯的成功会改变半导体行业 投资计划;也就是说,有许多因素需要考虑。我们 从大量行业消息来源收集到的反馈是一致的,那就是这不会影响GPU扩建计划。DeepSeek的技术是 令人印象深刻,但并没有利用大型CSP必然投资不足的技术。事实上,我们所看到的许多被认为是突破性的技术,包括FP8中的训练、多令牌预测、MLA、自定义PTX代码和组 相对策略优化(GRPO)强化学习框架,所有数据 回到6个月大的DeepSeek v-2和DeepSeek数学模型或更广泛的人工智能研究文献中。请参见这里,在这里f或者举例说明。也就是说,如何实现这些技术非常重要,DeepSe ek已经通过所有 账户提供了一个高效的设计。然而,考虑到围绕星门的注水时间,Meta在2025年对GPU的增量需求,微软的重申 他们的800亿美元财政支出上限指导,以及信实在印度的3Gw项目,大部分都是DeepSeek所做的工作是那些接入模型生态系统的人所知道的。 算法改进的历史表明,我们不应低估低成本、更高级功能和持续扩展所带来的渐进需求。在描述变压器发明的论文中,作者写道:“我们的基础模型超越了所有先前发布的模型……而训练成本却低得多”(此处)。英伟达表示,他们已经 看到了这一点 在过去十年中,算法效率提高了>1000倍,超过了单芯片推理性能的提升。在这种情况下,10倍的减少是可能的当每个模型的训练需求每年增长10倍时,DeepSeek建议的训练计算对LTGR的影响并不大潜在的成本降低可以加速推理的采用,从而加速推理的需求。 但出口管制仍然是一个风险:显然,技术限制中国只能使用H20 绩效水平并没有阻止中国发展LLM。目前很难回答这对政府政策意味着什么。设定更低的性能门槛将为中国国内硅产业注入一剂强心针拜登提出的限制人工智能的提案——目前被暂停——将限制集群规模,但这将产生同样的影响。该提案也会让其他国家获得支持中国人工智能发展的许可证。 开源相对于其他开源软件的性能差距正在缩小 更多的廉价开源选项。DeepSeek的R1重新点燃了这些风险这给人工智能领域最大的支出者带来了压力,迫使他们合理化越来越大的训练运行,而不是以较低的价格利用他人的工作。 关于半决赛的更多详细想法,请参见:关于Deepseek和其他的最新想法关注点;为什么我们仍然对人工智能半决赛保持乐观 互联网:降低成本障碍以推动产品创新和采用:我们看到DeepSeek的架构和预训练带来的任何成本效率 这些改进对我们的消费者来说是一个积极的信号,因为他们正在寻找开发新的模型和LLM支持的产品。实际上,我们看到了ROIC上的GenAI资本支出上升……但资本支出上升的可选性也可能较低。大型科技公司有能力打造更多创新产品 驱动消费者效用、可扩展性(通过更高效的架构)和采用率更高。在这里,我们看到GOOGL、META和AMZN最有可能从这些较低的成本中获益,因为它们拥有庞大的资本支出、用户基础以及提取DeepSeek改进并将其应用于自己模型的能力。也就是说, 更高效的架构可以导致更广泛的(成本更低的)GPU支持我们覆盖范围内的小型企业的产品。有关我们如何在我们的覆盖范围内推广支持gpu的采用情况,请参见Who Will Be the GenAI领导者和落后者?特别是,AMZN的AWS战略围绕着 在模型层面上实现商品化,AWS聚合第三方模型,并通过Bedrock等工具为客户提供应用程序。在一定程度上,DeepSeek的贡献代表了模型的更大程度的民主化构建(所需成本较低,计算量较少)并导致进一步随着模型的商品化,我们认为AWS作为聚合者将受益。 软件:软件供应商的人工智能输入成本正在下降。我们看到了更大的增长 模型层的算法效率,对企业软件来说是一个积极因素。更具有成本效益的模型正在降低更广泛的“GenAI输入成本”软件生态系统,因为我们的覆盖范围内的公司主要围绕这些模型构建解决方案(而不是销售这些模型本身)。此外,这些效率的提高并不令人惊讶。生态系统,而是我们报道中的公司已经积极地推动降低这些投入成本本身,因为大多数软件公司可能认为较低的投入成本会推动更高的利用率(这是杰文悖论的一种表现)例如: °微软专注于其“Phi”小语言模型(SML)战略,因为其Phi-4 14B模型最近交付了相当的基准结果withLlama-3.3 70B°ServiceNow使用其特定域的自定义语言模型 在与英伟达合作,以更昂贵的方式运行推理°Snowflake训练了其北极17B LLM表现与预期相当certain企业基准和最佳SQL性能a培训计算预算仅为200万美元°Elastic已经构建了Elastic Learned Sp arse EncodeR(ELSER),检索模型,也用于降低AI应用中开箱即用的语义搜索成本 微软——短期收入担忧被更广泛的采用和FCF的上行潜力所抵消。虽然微软也在销售模式,但该公司并不是例外,我们认为这些发展对股票来说是积极的。 1.如上所述,微软已经专注于其“Phi”小型机语言模型(SML)策略,表明了对追求成本效益模型而非最大化训练计算以构建最智能模型的关注前沿模型。该公司最近推出的Phi-4 14B与Llama-3.3 70B的基准测试结果相当。2.微软与OpenAI的成功没有直接联系,他们的目标也没有相同(不是相互排斥),这在首席执行官萨蒂亚纳德拉最近的一次播客节目中得到了强调微软最近在星门项目中的行动,该公司拒绝了这一项目,这表明微软并不从事构建前沿模型的业务选择成为唯一的基础设施提供商。就当前面临收入风险而言,微软不承认OpenAI的任何训练收入,但公司的大部分人工智能收入已经由推理驱动。尽管这些算法的成本可能在短期内下降,效率扩散到其他模型中,这需要时间和客户 与此同时,不太可能撕裂和更换为应用程序提供动力的LLM。一旦算法效率扩散,推理成本降低,我们预计更高的使用量将抵消较低的价格(见Jevon的悖论)。3.在最近的Build开发者大会上,微软首席执行官萨蒂亚·纳德拉告诉听众,他认为基础模型将变得越来越容易商品化,并指出Azure支持超过1800个型号(包括基础模型、小语言模型、特定领域模型)和支持基础设施,以使用这些模型作为利用平台的理由(而不是他们对OpenAI模型的访问是排他性的)。这也很可能是微软隐含选择不作为最近宣布的Stargate合资企业的更广泛供应商的理由(见报告)。所以当我们估计今天Azure的收入~50亿美元直接归因于OpenAI可能会面临来自成本较低的替代品的压力,比如在我们看来,更大的机会在于建设企业应用利用这些模型为数以万计的客户服务。正如我们在2014年第四季度的CIO调查中所看到的,微软在CIO投资于通用人工智能方面遥遥领先,成为钱包份额增长最快的公司。在我们最近的调查中,41%的CIO已经在使用Azure AI,或预计在未来12个月内使用。4.最乐观的是,我们讨论了2016-2019财年的潜在下行风险在我们的预览中,资本支出估计值为,正如我们所看到的,计算能力增加了36倍考虑到这一点,资本支出估算所隐含的能力是激进的,因为它应该嵌入很少的培训基础设施,而且微软正在积极地推动运行模型更高效。我们现在对这一观点更有信心,这可能是一个重要的信号未来几年的自由现金流增长为正,我们已经超过了华尔街。MS的2026财年资本支出估计为950亿美元,2026财年FCF为820亿美元(+28% YoY),因此,明年每降低10%的资本支出,就可能转化为FCF股价上涨10%+。历史上,该公司在F3Q四月财报电话会议上已经对明年的业绩(FYE六月)进行了展望,但微软倾向于在F2Q一月财报电话会议上给出多季度的定性预测,以避免近期意外,这应该是投资者关注的重点。周三的收益电话会议。 能源:当我们考虑那些受美国人工智能基础设施增长影响的股票时,我们 相信我们很可能会继续在美国看到大量的资本支出。关键需要考虑的要点:(i)我们对美国数据中心管道的分析表明,已知管道的绝大部分是AI推理和非AI用例,而不是AI训练(正如我们的同事所指出的,有强有力的论据表明AI推理需求将快速增长),(ii)基于我们分析中包含的内容为GenAI模型提供动力,我们看到计算成本(c数据中心的资本成本,