微软CEO萨蒂亚·纳德拉在Dwarkesh播客中的核心观点与关键信息如下:
规模、拓扑与Fairwater架构
- 微软致力于每18-24个月将训练能力提升10倍,Fairwater 2架构将比GPT-5训练时增加10倍,其光纤数量几乎相当于两年半前所有Azure数据中心的总和。
- Fairwater 4将运行在一拍比特网络上,实现高速连接;AI广域网连接到密尔沃基,多个Fairwater正在建设中,体现了模型并行和数据并行的设计理念。
构建速度、可互换性与技术迭代
- 微软强调构建可互换的机群,以适应GB200、GB300到Rubin等新一代芯片的快速迭代,避免在单一代产品或位置上出现不平衡。
- 公司暂停了部分建设以确保持续的可互换性、训练与服务的平衡以及地理分布,计划按需构建、租赁甚至提供GPU作为服务。
超大规模业务定位
- 微软致力于成为超大规模业务服务商,专注于人工智能工作负载的长尾业务,提供领先的裸机即服务用于训练,同时不挤占Azure的其他业务。
定价与变现模式
- 微软的变现模式包括广告单元、交易、设备毛利、订阅(消费者和企业)以及消费,订阅本质上是消费权利,分为不同层级。
- GitHub/Copilot的订阅用户已从2000万增长到2600万,开发者每秒加入GitHub,约80%使用Copilot工作流,未来将推出Agent HQ,提供多智能体服务。
AI工作负载的真实形态
- 真正的AI工作负载不仅包括API调用,还需要模型(OpenAI、Grok、开源)、Cosmos DB/SQL、存储、计算、评估和编排,Azure Foundry为此提供支持。
- 微软的MAI路线图将充分利用OpenAI模型,并在此基础上增加价值,未来将推出统一音频/图像/文本的全能模型。
OpenAI合作与系统IP访问
- 微软将最大限度使用OpenAI模型,并为其增加价值,如强化学习微调、中期训练等。
- 微软拥有对OpenAI系统级IP的访问权限,并将实例化其构建的模型并进行扩展。
自研芯片与多供应商策略
- 微软强调资本密集型和知识密集型特点,通过软件改进提高资本回报率,如每美元每瓦特的代币软件改进可达5-40倍。
- 公司采用多供应商策略(Intel→AMD→Cobalt),与英伟达合作并自研Maia 200芯片,同时与OpenAI共享系统级IP。
延迟、区域与数据驻留
- 随着模型演进,任务变得异步化、耗时数分钟乃至数小时,需要高密度区域集群、区域间广域网、本地存储/数据库以及欧盟数据边界。
- 微软强调主权云和主权服务的建设,以增强信任和避免集中风险。
多模型未来与专业化
- 微软认为不存在单一模型能适用于所有部署场景,未来将有多模型、开源检查以及基础设施、模型和脚手架的专业化。
- 公司强调多模型和开源的重要性,以避免集中风险,并支持美国公司在全球范围内建设AI工厂。
代理与微软优势
- 未来智能体即使使用任何计算机,也能从微软的基础设施集成中受益,如身份、存储、安全、可观测性和延迟/成本路径。
- 微软提供更高效的访问方式,以支持智能体在任何地方运行。