您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:硅谷调研反馈20251218 - 发现报告

硅谷调研反馈20251218

2025-12-18未知机构曾***
硅谷调研反馈20251218

2025年12月22日09:29 关键词 模型多模态语言类训练方法数据集算力谷歌迭代推理视频生成GPT算力紧缺996裁员扩招模型训练科研层面数据中心电力微软 全文摘要 在AI领域,模型进展与电力需求、算力紧缺、数据中心建设及对电力设备的需求成为讨论焦点。尽管对前沿模型进展有所担忧,美国市场对AI未来仍持乐观态度,科技巨头积极推进行业发展,尤其是在模型训练和数据中心建设方面。电力和算力需求在加州、弗吉尼亚和德州等地尤为突出,电力供应面临挑战。 硅谷调研反馈-20251218_导读 2025年12月22日09:29 关键词 模型多模态语言类训练方法数据集算力谷歌迭代推理视频生成GPT算力紧缺996裁员扩招模型训练科研层面数据中心电力微软 全文摘要 在AI领域,模型进展与电力需求、算力紧缺、数据中心建设及对电力设备的需求成为讨论焦点。尽管对前沿模型进展有所担忧,美国市场对AI未来仍持乐观态度,科技巨头积极推进行业发展,尤其是在模型训练和数据中心建设方面。电力和算力需求在加州、弗吉尼亚和德州等地尤为突出,电力供应面临挑战。AI应用主要集中在B端,尤其在互联网广告领域,技术虽改变推荐算法,但商业化效果待观察。总体而言,对话凸显了技术创新与市场需求增长,同时揭示了电力和算力资源的紧缺。 章节速览 00:00美国市场对模型进展与电力短缺的担忧 对话讨论了美国市场对模型进展和电力短缺的担忧,指出尽管语言类模型迭代放缓,但多模态模型仍处于高速迭代状态。大厂如微软、Meta、亚马逊和谷歌内部人员正忙于模型和应用的快速开发,预计明年6000亿投入问题不大,整体情况相对乐观。 01:49大语言模型迭代与数据集优化 2024年6月,大语言模型面临迭代停滞的担忧。8月调研显示,产业界对模型迭代方法存在混沌状态。10月,GT4及后训练强化学习方法的出现,推动了语言模型迭代的加速。近期,GMI3 pro的突破主要源于数据集优化,而非训练方法革新。谷歌凭借优质数据集,在模型训练中取得显著进展。 04:01多模态模型训练方法论的最新进展与未来趋势 对话讨论了多模态模型训练方法从混沌探索到共识形成的转变,重点介绍了DIT架构的融合训练优势及未来应用前景,包括视频生成和用户需求变化的预期,强调了模型训练环节在未来半年的迭代潜力。 08:30模型训练的三大关键因素及其未来展望 对话深入探讨了影响模型训练的三大核心维度:算力、训练方法与数据集质量。讨论指出,算力提升,尤其是从H系列卡过渡到B系列卡,可能带来模型性能的跃迁;训练方法上,尽管谷歌与伊利亚等机构观点不同,但新方法如meat train和national learning正逐渐应用于实践,预示着模型能力可能迎来重大变革;同时,GPT系列模型预计在明年迎来大版本迭代,采用新训练方法,有望显著提升模型性能。整体而言,硬件升级、训练方法创新与数据集优化为模型迭代提供了广阔空间。 11:31算力紧缺与AI发展:模型训练与推理的挑战 对话讨论了算力在AI模型训练和推理中的紧缺问题,指出尽管算力总量有所增长,但由于人员扩招和应用需求增加,算力仍处于紧张状态。大厂内部正面临996工作制等压力,员工感受到算力分配不足。未来,随着多模态模型和视频生成功能的迭代,推理压力将进一步加大,AI领域的创新需求将持续增长。 15:14巨头企业加大AI模型研发投入,追赶产业趋势 对话讨论了微软、亚马逊等科技巨头在AI模型训练领域的最新动态,指出尽管模型训练有放缓迹象,但这些企业正加大投入,组建新团队,以追赶产业趋势。微软尤其显著,不仅增加硅谷招聘力度,还组建了专门团队研发自己的基座大模型。这反映了巨头企业为保持竞争力,正系统性地补足自身能力,应对未来可能出现的模型迭代和技术突破。 18:01科技巨头加大AI模型与训练集群投入 微软、亚马逊和苹果正积极招聘模型训练专家,计划建立大规模训练集群以支持自研模型。微软战略侧重于利用外部技术赋能云服务和Office软件,同时加强内部模型研发。Meta因投资回报率低及内部动荡面临挑战,各公司预计在未来半年至一年内追平当前模型能力,维持高强度投入。 19:42大厂AI战略:追赶与创新 对话探讨了各大科技公司在AI领域的不同战略。微软和亚马逊专注于保持其模型在行业第一梯队的位置,而非追求绝对领先;Meta则致力于成为全球最顶尖的AI模型,正经历组织架构调整以加速追赶;谷歌虽曾感到焦虑,但现已转向积极应用AI技术于业务场景,探索商业化路径。整体趋势显示,各公司均在AI领域加速前进,但目标和策略各有侧重。 23:29算力与电力挑战:AI模型迭代下的能源需求 讨论了AI模型迭代与大厂战略对算力需求的影响,指出北美电力结构性短缺,特别是德州和弗吉尼亚的问题,加州因核电站延役暂时缓解。未来模型发展可能加剧电力需求,数据中心建设受限于光纤光缆与建筑工人效率,短期内仍聚焦于核心区域。 27:58数据中心电力供应与AI产业发展关系探讨 讨论了CSP在电力合同上的优势及其对数据中心运营的影响,指出CSP能以较低成本锁定长期电力供应,而其他企业可能面临电力成本上升和供应不足的问题。此外,分析了Oracle项目延迟的原因,认为其问题主要源于自身而非行业普遍现象。最后,探讨了核电、天然气和光储在能源供应中的角色,指出核电面临政治和经济挑战,而天然气和特定区域的光储仍具潜力。 33:34 AI在ToB与ToC领域的应用及对软件行业的影响 讨论了AI在ToB领域通过行业know-how实现落地,在ToC领域尤其是互联网广告推荐算法上的革新尝试,以及AI对软件行业的潜在影响和取代担忧。 思维导图 发言总结 发言人1 讨论了人工智能领域的当前发展趋势,尤其关注了美国市场的情况。他提到市场对前沿模型进展的担忧以及对电力短缺的忧虑,认为这些因素可能会影响数据中心的建设周期。然而,他认为市场对模型泡沫的担忧不必过分关注,因为微软、Meta、亚马逊和谷歌等大公司仍在积极开发新技术,快速推进AI领域的发展。 他强调,大厂如微软和亚马逊正在加大对模型训练集群的投入,努力追赶并保持技术领先地位。同时,谷歌也调整策略,加快AI在业务场景中的应用,显示出对AI领域持续的积极投入和乐观态度。此外,他提到了电力供应对数据中心建设的影响,特别是加州、德州和弗吉尼亚等地区,尽管存在结构性电力短缺,但大厂通过与发电企业签订长期合同等方式,努力确保数据中心的电力供应,支撑AI技术的发展和应用。 发言人3 他对应用领域的进展表示关注,主要提出了两个问题。首先,他持观望态度,询问B端(企业端)和C端(消费者端)应用是否在大型市场和企业中有实质性进展,暗示了对当前发展速度和深度的疑虑。其次,他探讨了人工智能(AI)是否会取代现有软件,认为AI可能以“降维打击”的方式对软件行业产生影响,即通过高度智能化和自动化,以超出预期的方式改变行业格局。他希望了解对此问题的见解,表达了对AI技术发展及其对软件行业潜在影响的深度思考和探索需求。 要点回顾 在当前市场环境下,大家最关注的AI领域相关担忧主要是什么? 发言人1:当前市场主要关注的AI领域担忧主要包括两个方面:一是对前沿模型进展的不确定性和由此带来的电力短缺及数据中心建设周期延长的担忧;二是关于AI模型是否存在泡沫的讨论,尤其是对于投资大量涌入该领域后能否产出有效成果的预期。 对于AI模型领域的泡沫问题,目前美国的情况如何? 发言人1:在美国,虽然有论调认为存在泡沫,但从实际情况看,各大科技公司如微软、Meta、亚马逊和谷歌内部从事模型研究和应用的团队都非常忙碌且紧张,正在快速推进模型和应用的研发。因此,从模型角度来看,短期内出现泡沫的担忧并不明显。 在AI模型的不同类型中,哪些领域的发展状态有所不同? 发言人1:语言类模型的发展呈现明显的放缓趋势,而多模态模型则处于高速迭代状态。2024年期间,语言模型经历了从预训练方法论混沌到共识训练方法的转变,并在下半年有所加速。而多模态模型在过去一年多时间里训练方法并不一致,处于较为混沌的探索阶段,但在2025年6月前后开始形成共识,主流方法论转向EIT架构。 多模态模型训练方法上有哪些最新进展和变化? 发言人1:目前,多模态模型训练的主要方法论已从以往的分开训练文本和图像数据,转变为融合图片和文本数据后进行一次性训练(DIT)。这种新方法使得模型在理解用户提示词、文本语义以及生成图片等方面的表现更为出色。 主流方法论何时开始趋于收敛,并且对多模态模型的发展有何影响? 发言人1:主流方法论大约在今年上半年开始出现共识,下半年对于多模态模型尤其是图片类模型的爆发成为可能。DIT架构目前在图片类模型中得到了应用,但后续产业的发展可能会要求调整,如谷歌63、nano banana 2、OPS322等可能会转向DIT架构。未来半年到一年内,随着DIT架构的进一步发展和产业迭代,可以预期视频生成等场景将带来更好的功能变化和潜在用户需求的变化。 DIT架构目前实现了哪些功能? 发言人1:DIT架构目前实现了图文的理解、图文的生成以及视频的理解,但视频的生成功能还未实现原生多模态。 对于模型训练的关键影响因素,有哪些方面的预期变化? 发言人1:影响模型训练的关键因素包括算力、训练方法和数据集质量。在算力方面,从H系列卡转向B系列卡进行训练时,可能会出现模型性能的跃迁,这有待于下一代模型如group下一代模型的实际测试分析。在训练方法上,业界正讨论谷歌和OpenAI之间的争议,以及pre环节的有效性,同时关注新方法如meat train和ne learning是否能实际应用于模型训练,它们对未来模型能力的变化也值得关注。此外,明年的GPT大版本迭代将采用新的训练方法,其效果和对模型能力提升的影响同样值得期待。 推理层面目前的情况及未来趋势如何? 发言人1:目前推理层面存在一定的压力,尤其是在产品端,由于需求增长和训练任务对算力的需求,导致算力紧缺。随着多模态模型和视频生成功能的迭代增多,推理压力可能会更加显著。同时,大厂内部员工工作量显著增加,甚至出现996工作制,AI部门仍在疯狂扩招以应对前沿模型探索和商业化结合的需求,算力资源分配与排队问题依然存在。 在大厂内部,随着AI应用带来的效率提升,算力的需求是否在增长? 发言人1:是的,由于人员扩招和内部对AI应用需求的增长,从过去只能满足三个需求到现在能满足30个需求,算力在增长,但员工体感上仍处于紧张状态。尽管算力总量在提升,能满足其中的30个需求,但从员工内部需求的角度看,算力还是紧缺的。 对于明年及后进入者在模型训练领域的追赶窗口有何看法? 发言人1:明年对于像微软、亚马逊和苹果这样的巨头来说,是一个比较艰难且确定的状态,因为模型训练层面上有放缓迹象,但也正是后进入者的追赶窗口。明年可能出现新的训练方法和B卡上线,导致模型再次跃迁式迭代,所以这些大厂需要在当前阶段补齐自身能力以保持在产业趋势中不掉队。 模型训练是否能出现弯道超车的情况? 发言人1:在模型训练环节不太可能出现弯道超车的情况,因为这涉及芯片设计、云平台设计、硬件集群设计以及训练方法等多个系统性工程问题。必须经历实践摸索,才能真正赶超。当前微软等公司在看到前者的放缓后,正 加大投入重新上牌桌,比如微软组建了全新的团队研发自己的MAI基座大模型。 微软在Katushka(Kubernetes)投入上的战略变化是什么?微软的战略布局有哪些重点方向? 发言人1:微软最初在Katushka投入上有所收缩,但在今年二季度和三季度又开始重新加大Katushka力度,原因是推理和深度思考功能需求爆发。微软内部战略优先级明确,首先要建立自己的大规模训练集群,然后在此基础上构建数据集,以实现自有模型的研发。微软的战略是两条腿走路:一方面利用OTI赋能云和Office软件实现商业化变现;另一方面自己内部团队研发模型。类似地,亚马逊和苹果也在大力度挖掘模型训练人