2025年12月09日14:50 关键词 TPU谷歌出货量V6 V8外卖芯片OpenAI苹果博通芯片设计PPU架构功耗算力GPU光模块字节定制HBM液冷方案 全文摘要 谷歌TPU的出货量在近两年内显著增加,预计未来将继续增长,特别是在新版本V6、V7和V8推出后。专家指出,TPU在训练和推理等不同应用领域展现出广泛适用性,且谷歌在芯片设计、网络架构(如OCS光互联)以及芯片间互联技术上的创新为行业树立了标杆。其他科技公司如Meta、苹果对谷歌TPU表现出浓厚兴趣并考虑采购,反映了市场对定制芯片以满足特定业务需求的日益增长需求。 Google产业链专家-20251201_导读 2025年12月09日14:50 关键词 TPU谷歌出货量V6 V8外卖芯片OpenAI苹果博通芯片设计PPU架构功耗算力GPU光模块字节定制HBM液冷方案 全文摘要 谷歌TPU的出货量在近两年内显著增加,预计未来将继续增长,特别是在新版本V6、V7和V8推出后。专家指出,TPU在训练和推理等不同应用领域展现出广泛适用性,且谷歌在芯片设计、网络架构(如OCS光互联)以及芯片间互联技术上的创新为行业树立了标杆。其他科技公司如Meta、苹果对谷歌TPU表现出浓厚兴趣并考虑采购,反映了市场对定制芯片以满足特定业务需求的日益增长需求。讨论还涵盖了芯片行业的整体发展趋势,包括自研ASIC芯片的挑战与机遇,强调了未来云计算和人工智能领域发展的潜力。 章节速览 00:00谷歌TPU芯片出货量增长及对外销售趋势 讨论了谷歌TPU芯片未来几年出货量的增长趋势,预计2026年将超过400万颗,2027年可能达到500万颗以上,特别是V8型号将成为主力。同时,谷歌芯片的外卖比例正在上升,预计2024年外卖芯片将超过50万颗,2025年超过100万颗。海外大厂如Meta等也正从谷歌采购芯片,以降低对英伟达的依赖,并借鉴谷歌芯片的技术与架构,这表明谷歌芯片在成熟前将作为过渡方案,未来可能实现多样化采购。 06:13 TPU与GPU在大模型迁移中的挑战与价值 讨论了将英伟达GPU上的大模型迁移到谷歌TPU的困难,包括迁移成本和模型适配性问题。指出TPU在单位功耗算力成本上的优势,以及谷歌通过软件优化提升模型适配性的策略。强调TPU并非通用芯片,但在特定模型上可带来显著价值。 09:58 2023-2024年客户订单量预测与分配 对话详细分析了2023年50万颗订单的客户结构,包括OpenAI、麦当劳、苹果和XAI等主要客户,以及欧洲云厂商等小客户。预计2024年订单量将翻倍至100万颗,其中AndTopic将获得40万颗,苹果出货量显著增加,剩余40万颗将分配给OpenAI、XAI等客户,具体数量待定。 12:09博通与谷歌TPU芯片合作分工及演变 讨论了博通与谷歌在定制TPU芯片方面的合作模式演变,早期博通负责全链条设计,而今谷歌已建立独立设计团队,双方分工更加细化,谷歌侧重架构与算法验证,博通则主导芯片集成与性能优化,核心模块设计上谷歌参与度提升以保护知识产权。 16:48博通与字节合作芯片设计及光模块需求分析 博通与字节在芯片设计上深度合作,博通负责设计与优化,字节提出算力需求。英伟达GPU与谷歌TPU的光模块需求比为1:1和2:1,揭示了不同架构下的光模块使用效率差异。 22:09谷歌TPU与CPU发展动态及V8升级特点 讨论了谷歌TPU与CPU的发展时间线,特别是V8相较于V7在训练端性能的显著提升,以及HBM4的引入对带宽和算力的增强。提及了V8的液冷方案规划尚未确定,预计价格接近15000美金。此外,还比较了谷歌与英伟达单节点算力规模,谷歌采用Cube架构,单节点内TPU芯片数量远超英伟达。 28:02投资者提问方式与参与流程说明 对话围绕投资者提问方式进行说明,指导通过乐高界或网络端的投资者如何参与提问,包括举手连麦、文字交流区提问及电话端的一键提问操作。同时,确认了多位参会者的声音已放开,准备进行提问,确保了提问环节的顺利进行。 29:29芯片价格构成与谷歌合作模式解析 讨论了芯片价格的形成,包括设计成本、生产制造成本及毛利率。指出谷歌购买芯片成本含设计、制造等,毛利率约70%,并额外收取架构授权费。强调芯片交易不仅仅是硬件,还涉及互联技术授权。 34:14 V6芯片价格与V8、V7量产计划讨论 对话讨论了V6芯片的价格约为8000美金,只有一个型号。提及V6出货数据可能下降,V8可能在明年四季度提前量产,但实际进度可能受测试和性能调整影响,存在提前或延迟。V7的量产计划也多次推迟,因芯片流片后需测试性能,未达标则需修改流片。 36:11谷歌V8芯片性能与规格探讨 讨论了谷歌V8芯片的性能提升、规格设计及未来发展方向,指出硬件迭代速度慢于工艺,需通过软件优化提升算力效率,V8性能提升有限,可能需采用HBM4技术以增强带宽,规格尚未最终确定,预计明年一季度公布,同时提到V7功耗约600瓦,与B200单核性能相当,整体算力提升面临瓶颈。 42:25讨论V6至V8芯片技术路线及供应链进展 对话围绕V6至V8芯片的技术路线展开,提到V8大概率采用SDM4,V7倾向于维持HDM方案,V6则使用HBM。供应链方面,TSC和ISU表现主动,TM预计明年有阶段性进展,但对PCB供应商的了解较少,更侧重芯片产品与市场。 44:10 2024年ASIC芯片市场展望:国内外科技巨头进展与挑战 对话聚焦于2024年国内外科技巨头在自研ASIC芯片领域的进展与市场展望。国内方面,阿里、百度、华为等公司正积极研发,但面临工艺限制,与国际领先水平存在代际差异。海外方面,谷歌、Meta、NVIDIA等预计量产,博通和亚马逊等规划未来项目。整体上,2024年ASIC芯片市场将迎来新突破,但产能与技术挑战仍需克服。 48:46芯片自研与采购决策分析 对话围绕芯片研发与采购的决策展开,指出部分公司因成本、效率及研发能力限制,放弃自研芯片转而采购第三方产品。以谷歌芯片迭代周期为例,强调自研芯片的长期投入与成熟过程。对于需求量不大、研发实力有限的公司,采购第三方芯片或采用其架构成为更优选择。预计未来采用此类策略的公司数量将增加,AC芯片出货量调整至约一百多万颗,低于预期。同时,提及对PCD及服务器供应链技术应用的了解有限。 51:28芯片迭代与设计挑战 讨论了芯片迭代速度差异及设计难点,强调定制芯片的高难度与长期磨合需求,以及谷歌TPU针对特定工作负载的设计特点,分析了芯片公司设计能力对产品成功的影响。 56:39 AI芯片定制趋势与谷歌TPU定位分析 对话讨论了AI芯片的定制趋势,特别是谷歌TPU在特定模型优化上的优势及其与英伟达通用芯片的区别。云厂商和AI新公司寻求减少对英伟达依赖,转向定制芯片以适应细分领域深化学习和推理需求。谷歌TPU不追求全面适配,而是在特定模型上优化,降低成本和功耗。定制芯片趋势反映AI发展从大模型训练转向细分领域深化学习和模型变现。 01:02:06 OCS技术与谷歌数据中心创新解析 讨论了OCS在数据中心的应用,强调了其光互联带来的高带宽和长距离传输优势,同时指出在数据处理上的局限性和对光子计算成熟度的依赖。此外,提到了谷歌在TPU芯片之外,通过定制化互联技术和超级节点架构等创新,实现了训练强度的显著提升。 思维导图 发言总结 发言人1 他广泛探讨了科技行业多个方面的动态。首先,他关注了下一代产品的进展,包括魔鬼鱼(V6)、下一代斑马以及V7,询问了这些产品的出货量预测。同时,他还提到了谷歌和Meta等大型科技公司对这些产品的采购情况,以及各大科技巨头自研ASIC产品的进展和它们在市场上的份额。 他还深入讨论了供应商与客户之间的合作模式,特别提到了定制化硬件如PPU的发展。此外,他还预测了明年海外科技大厂的AC产品出货量。 在讨论中,他还触及了不同公司迭代速度的差异,以及谷歌TPU设计中的关键考量点。总的来说,他的发言内容涵盖了下一代产品、采购情况、自研技术、定制化硬件、市场份额以及科技公司间的竞争和合作等多个维度。 发言人2 他讨论了谷歌TPU芯片在2022年至2024年期间的市场趋势和需求增长,预计出货量将大幅攀升,从3300万颗增加到超过500万颗,其中V6和V8型号是增长的主要驱动力,尤其是V8芯片预计在2027年成为主要产品。强调了谷歌TPU芯片在AI和云计算领域处理大规模数据和优化特定机器学习模型的应用潜力,同时,讨论了谷歌在芯片设计和制造上的持续投入,以提升性能和效率,并应对技术挑战,包括芯片迭代、性能优化和市场接受度。此外,发言人还提到了谷歌TPU芯片在定制化和特定领域应用的优势,以及与英伟达GPU等其他芯片解决方案的竞争。整体上,他提供了对谷歌TPU市场策略、技术进步和未来展望的全面分析。 问答回顾 发言人2问:专家对于谷歌TPU的判断以及明后两年的放量情况是怎样的? 发言人2答:谷歌的TPU需求量正在大幅攀升,今年预计出货量约为3300万颗,其中包含一部分V5、V6和V7芯片。明年出货量将超过400万颗,主要来自于V6的220万颗和V7的180万颗,而到了后年(2027年),V8将成为主力,其出货量将达到330万颗左右。 发言人1问:今年大概300万颗,明年400万颗的目标,这个出货量达到400万颗的概率大不大? 发言人2答:这个大概率会超过400万颗。因为谷歌外卖芯片的比例越来越高,今年预计超过50万颗,明年有望超过100万颗。此外,与英伟达的竞争优势、与其他公司如OpenAI、Meta采购芯片等因素都会推动这一目标的实现。 发言人1问:明年100万颗出货量中,客户结构如何划分? 发言人2答:明年100万颗出货量中,最大的客户是and topic,预计拿到40万颗左右;苹果的出货量也会大幅增加至20万颗;另外40万颗将分配给OpenAI、XAI等其他客户,但具体数量尚未统计清楚。 发言人1问:博通定制的PPU与谷歌的合作情况如何? 发言人2答:博通与谷歌在TPU芯片定制方面经历了长期的合作与演变过程。早期,博通参与了芯片前端结构、设计到后端的全过程辅导。随着谷歌自身芯片设计能力的增强,如今谷歌已在很多芯片模块设计上具备独立自主的设计能力。 发言人2问:现在博通和谷歌的合作方式是怎样的? 发言人2答:目前我们与谷歌的合作主要集中在芯片的整体架构、算法、结构验证以及部分核心模块的设计上,包括芯片内部互联、内存相关和电源管理电路设计等前端和后端设计环节。而芯片的整体集成、性能优化以及后期流片测试封装等由博通全权负责。随着谷歌在核心算力单元上的参与度越来越高,他们自己的设计团队会介入其中,以提高配合效率和保护自家核心架构的知识不外泄。 发言人1问:字节跳动与博通的合作机制是什么样的情况? 发言人2答:字节跳动由于缺乏像谷歌那样的强大芯片设计团队,在芯片设计参与度上可能不如谷歌,更多地提出对算力、带宽等方面的要求,由博通负责优化和核心模块设计。博通在整体芯片前端设计、后端设计及结构优化等方面承担了高度依赖的合作模式,并全权负责流片和相关工作。 发言人2问:英伟达GPU与谷歌GPU在对光模块需求量上的比例是多少? 发言人2答:英伟达GPU在一个72卡结构的服务器中通常配备两张GPU,每张GPU含有大约140颗芯片,且通常使 用64通道的交换机,对应大约一台到两台800G的交换机。这意味着英伟达GPU服务器对应配置大约是一个800G的光模块。相比之下,谷歌的TPU板卡上每包含4颗TPU芯片,大约是2比1的关系,即每两颗TPU对应一个800G光模块。 发言人2问:谷歌CPU V8的时间线及与V7相比有哪些升级变化?谷歌V8和V7芯片在单位机柜内配置数据上有什么区别? 发言人2答:V8芯片预计在明年一季度出货,全年出货量预计约180万颗。V8相比V7,在训练端性能有显著提升,同时在推理端的响应速度更快、并发处理能力更强