我们如何定义GPT下一代大模型?我们判断OpenAI对大模型的产品线与预期曾进行过调整。2024年7月OpenAI首席技术官Mira Murati称,GPT-5有望在2025年底或2026年初推出。但根据2025年2月13日Altman在社交平台上表明,GPT-5几个月后面世。我们判断,GPT-5的发布时间或提前,或由于DeepSeek近期的重磅更新和亮眼表现对OpenAI产品版图构成了威胁,进而希望加快产品迭代步伐。自OpenAI在2015年成立以来,通过多轮融资不断扩展其技术产品布局。从时间周期来看,平均1年半左右OpenAI会获得一次新的融资。从大的模型迭代节点来看,随着ChatGPT把热度推高,竞争对手持续推陈出新,市场对于OpenAI产品迭代速度的预期在加快。 GPT-5预训练情况如何测算?我们基于普遍应用的算力供给需求公式,讨论公式中的核心参数变化趋势,以此给出我们的判断。已知GPT-4参数量为1.8万亿,在2.5万张A100上训练90-100天。已知GPT-4.5的计算量约为GPT-4模型的10倍,假设Scaling Law持续奏效,假设其具有3w-5w张H100的训练资源,其他条件与GPT-4基本保持一致,则可以推测,1)GPT-4.5模型参数量约为5.7万亿,2)GPT-4.5模型训练用时大约需要148-247天。关于GPT-5:假设达到比GPT-4强100倍的运算能力,其他假设相同的情况下,可测算得到1)GPT-5模型参数量约为18万亿,2)模型训练用时大约需要203-225天。 GPT-5推出对AI行业有何影响?影响#1虽然业内对于大模型发展的方向仍处于激烈讨论中,但头部大模型厂商的万卡集群建设未曾停歇。 聚焦国内市场,从GPT-4能力的大模型发布时间表来看,普遍比GPT-4晚一年的时间。由此我们预计,GPT-5若引发新一轮AI热潮,更多大集群的建设会提上日程。影响#224/12月,ChatGPT周活跃用户数已经超过3亿,目标是在未来一年内达到10亿用户。据“推理需求=2×参数量×token”的计算公式,在其他条件不变的前提下,2025年推理市场空间有望达到2024年的三倍;若GPT-5带动参数量大幅提升(按18万亿计算),假设26年ChatGPT总体推理消耗的tokens为25年的2倍,按二八法则假设26年tokens消耗中仅有20%为GPT-5的需求,则综合下来26年推理算力需求有望达到25年的5.6倍左右。 产业链相关公司:工业富联、沪电股份、胜宏科技、寒武纪、海光信息(与计算机联合覆盖)、龙芯中科、盛科通信(与通信联合覆盖)等。 风险提示:AI应用进展不及预期风险,Scaling Law放缓或失效风险,GPU技术升级不及预期的风险,万卡集群建设不及预期风险。 1.我们如何定义OpenAI下一代大模型? 1.1.“猎户座”(Orion)的进展预期如何变化? 关于“猎户座”(Orion):这一表述最早出现在2024年8月The Information的一篇报道中:“OpenAI开发的最新大模型“猎户座”或于2025年年初推出。”2024年9月,OpenAI日本公司CEO介绍了GPT-Next模型,被认为是“猎户座”,预期达到比GPT-4强100倍的运算能力,将成为大模型在语言处理和多模态功能上实现飞跃的重要里程碑。 图1:“猎户座”和“草莓”进展预期 关于GPT-5:市场曾预测GPT-5可能在2023年底或2024年夏季发布。2024年7月左右传出GPT-5可能大幅推迟上线的消息,OpenAI首席技术官Mira Murati称,GPT-5有望在2025年底或2026年初推出,并表示GPT-5的性能将迎来重大飞跃,在特定任务中达到博士级智能水平。据中国经济网,GPT-5内部代号为“Gobi”和“Arrakis”,是一个具有52万亿参数的多模态模型。 根据最新发布的GPT-4.5(Orion)相关数据来看,我们判断OpenAI对大模型的产品线与预期曾进行过调整。2025年2月28日,GPT-4.5(代号Orion)发布,成为GPT系列最后一代非“思维链”模型,其计算量为上一代的10倍。而2024年9月,OpenAI日本公司CEO介绍了GPT-Next模型,被认为是“猎户座”,预期达到比GPT-4强100倍的运算能力。对比下来,二者口径有所调整。我们认为,此前OpenAI或以“Orion”作为GPT-5大版本迭代产品,而据彭博社援引知情者消息,截至2024年11月,猎户座相比GPT-4的进步不及GPT-4超越GPT-3.5的表现(事实上,根据25/3月“Orion”发布后,实测反馈普遍也认为提升幅度不及预期)。同时,我们在24Q3陆续看到了关于“Strawberry”的消息传来,以及后续o系列大模型的问世。OpenAI使用“Strawberry”生成训练下一代“Orion”大模型的数据,我们认为也是另辟蹊径之举。 而GPT-5的最新预期,我们认为也有所调整。2024年7月OpenAI首席技术官Mira Murati称,GPT-5有望在2025年底或2026年初推出。但根据2025年2月13日Altman在社交平台上表明,GPT-5几个月后面世。我们判断,GPT-5的发布时间或提前,或由于DeepSeek近期的重磅更新和亮眼表现对OpenAI产品版图构成了威胁,进而希望加快产品迭代步伐。 1.2.GPT-5发布时间如何判断?——从融资视角 自OpenAI在2015年成立以来,通过多轮融资不断扩展其技术产品布局。最初,OpenAI通过创始人初期投资启动其研究工作,专注于人工智能的基础研究,于2018年6月推出GPT-1。随后,OpenAI与微软达成合作,分别在2019年、2021年获得了总计30亿美元的投资。2022年11月见证了ChatGPT的问世。2023年1月,微软再次投入大规模资金支持,金额高达100亿美元。其后,GPT系列不断推陈出新,从2023年的GPT-4、GPT-4 Turbo,到2024年的GPT-4o和GPT-4o mini,多样化的产品先后发布,以满足不同客户的需求。2024年10月3日,OpenAI宣布获得66亿美元融资,这是该公司迄今最大的风投交易。OpenAI的投后估值冲破1570亿美元,短短9个月时间公司估值接近翻倍,创下硅谷历史最高纪录。 从时间周期来看,平均1年半左右OpenAI会获得一次新的融资。以当前最后一次融资时间2024Q4计算,下一次融资时间或为2026年初。从大的模型迭代节点来看,虽然大版本迭代时间约为2-3年,但随着ChatGPT把热度推高,竞争对手持续推陈出新,市场对于OpenAI产品迭代速度的预期在加快。自GPT-4发布以来,约1年半的时间后GPT-o1 preview问世。由此,我们推断下一次大的版本更新不会超过一年半的时间,或对应2025年底。 图2:OpenAI融资与产品Roadmap时间表 为什么GPT-4.5(Orion)发布时间为25Q1?OpenAI为解决开发“猎户座”时遇到的挑战——高质量训练数据的供应减少,而积极探索合成数据生成。GPT-o1拥有进化的推理能力,在“回答”前能够进行缜密思考,生成内部思维链,因此其重要的应用之一是为“猎户座”生成高质量的训练数据,o1生成的高质量训练数据可以帮助“猎户座”减少生成的错误数量(也称为“幻觉”)。我们已知GPT-o1预览版已于9月推出,并可以为“猎户座”提供训练数据。假设9月相关训练数据已经到位,已知GPT-4曾采用2.5万张A100训练100天得到,假设由于训练难度等原因“猎户座”训练时间长于GPT-4,则“猎户座”最早发布时间为25Q1。 GPT-5的发布时间为何一再推迟?我们认为可以从融资时间轴窥探一二,在时间相对充裕(从“猎户座Orion”训练完成到下一轮融资节点还有大半年时间)的情况下,我们认为OpenAI会安排比“Orion”更为“重量级”的产品(如内部代号为“Gobi”和“Arrakis”的具有52万亿参数的多模态模型)命名为GPT-5,而将GPT-4.5(Orion)作为过渡性质的产品。 2.GPT-5预训练情况如何测算? 我们基于普遍应用的算力供给需求公式,讨论公式中的核心参数变化趋势,以此给出我们的判断。 图3:文本大模型AI训练侧算力供给需求公式 已知GPT-4参数量为1.8万亿,在2.5万张A100上训练90-100天。市场此前普遍预测“GPT-5”(也即实际命名为GPT-4.5的大模型,预期变化的推演详见本文1.1)可能需要3w-5w张H100训练,由此测算AI卡资源约为GPT-4的1.2-2倍。在FP16精度下,H100算力为989TFLOPS,A100为312TFLOPS,H100算力约为A100的3.2倍。 已知GPT-4.5的计算量约为GPT-4模型的10倍,假设Scaling Law持续奏效,假设GPT- 4、GPT-4.5与预测中的GPT-5均在FP16精度下完成训练,且算力利用率、训练迭代次数大致相同,按GPT-4训练用时为均值95天计算,由上述公式推测,1)GPT-4.5模型参数量约为5.7万亿,2)GPT-4.5模型训练用时大约需要148-247天。 图4:GPT-5预训练情况测算 关于GPT-5: 1)参数量预期:当前市场预期GPT-Next有望达到比GPT-4强100倍的运算能力,若假设Scaling Law持续奏效,则100倍可拆解为参数量10倍、预训练数据规模10倍。 假设GPT-Next代表GPT-5可能会达到的能力,则可以此作为GPT-5的体量预期。 图5:OpenAI日本公司首席执行官长崎忠雄介绍GPT-Next模型 2)训练时长预期:在对计算量有了基本的预期假设后,我们通过假设AI集群卡数进一步判断GPT-5可能需要的训练时长。2023-24H1,各厂商陆续建成的5万卡以下集群,其中比较有代表性的是Meta于24/03月宣布的两个24k GPU集群(共49152个H100),此前提到24年底的目标有大幅增长,预计建成35万卡H100集群。24H2以来市场最为关注的是xAI建设的10万卡H100集群,2025年目标或将扩展至100万卡。 在当前时点,我们假设同样作为头部厂商的OpenAI也已具有约35万卡H100集群的计算资源,倒推可测算得到GPT-5模型训练用时大约需要203-225天。 图6:主流科技公司公开宣布的万卡集群情况 3.GPT-5推出对AI行业有何影响? 3.1.影响#1大模型“标杆”再上新台阶,引发AI行业新一轮竞赛 关于互联网大厂CapEx投入的担忧始终存在。23Q2以来,四大云厂商在CapEx增速上画出完美的上行弧线,但24Q2-Q3开始出现增速持平或放缓的情况。英伟达表示,云服务厂商(CSP)占了数据中心业务的近一半营收,消费互联网公司和企业大约占了另一半。因此,英伟达GPU卡的出货量与云服务厂商对于AI大模型的态度紧密相关。 而24Q4四大云厂商合计增速进一步提升,释放出积极信号。 图7:北美四大云厂商各季度CapEx投入情况及增速(单位:亿美元) 图8:Google各季度CapEx投入情况 图9:AWS各季度CapEx投入情况 图10:Meta各季度CapEx投入情况 图11:Microsoft各季度CapEx投入情况 我们预计北美四大云厂商均具备10万卡集群能力,但AI初创公司、乃至国内云厂商或许对GPT-5仍持观望态度。而OpenAI的“标杆”作用正在于此。聚焦国内市场,从GPT-4能力的大模型发布时间表来看,普遍比GPT-4晚一年的时间。由此我们预计,GPT-5若引发新一轮AI热潮,更多大集群的建设会提上日程。 图12:海外主流AI大模型训练侧算力供给需求情况 注1:由于各公司对于大模型的训练数据披露口径不一,以上为本文非完全统计注2:GPT4算力利用率在32-36%区间,本文取中值粗略计算 注3:英伟