您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [-]:精校无错版文字稿 - 发现报告

精校无错版文字稿

2026-02-09 - - α
报告封面

开场 李⼴密(主持⼈):我是接下来Panel的主持⼈⼴密。刚才我在台下听,有⼏个感受。第⼀,就是唐⽼师的号召⼒很强,清华的⼈才⾮常好,不仅是国内,包括海外,清华⼈的⽐例⾮常⾼。 第⼆,就是我刚才听⼏个Talk的感受,叫“不⽌Follow,不⽌开源”,⽽且都在探索⾃⼰的下个范式,⽽且不⽌是Coding,都在探索⾃⼰的产品形态。 这个时间点也特别有意思,2025年其实是中国开源模型“⼤放异彩”的⼀年,“开源四杰”在全球取得了⾮常⼤的成绩,⽽且是Coding过去⼀年有10到20倍增⻓的⼀年。包括海外也在提Scaling到底⾛到哪⼀步了,有没有新的范式出来了。所以今天这个活动,接下来这个Panel讨论“接下来怎么⾛”,是特别有意思的。 话题1:中国⼤模型将如何分化? 李⼴密(主持⼈):我们先从第⼀个⽐较有意思的话题聊起来,硅⾕其实⼏家也都在明显的做分化,我觉得从“分化”这个主题可以先聊起来。Anthropic其实是对中国模型公司有⼀个⾮常⼤的启发的,硅⾕的竞争那么激烈,它没有完全Follow全都做,⽽是专注到了企业,专注到了Coding,专注到了Agentic。所以我⼀直在想,接下来中国的模型会分化成⾃⼰想要的哪些⽅向?我觉得分化这个主题是⼀个蛮有意思的。 我看顺⾬也上线了,要不顺⾬可以开场给⼤家讲⼀讲,包括你最近在忙什么? 姚顺⾬:⼤家好。我现在是不是⼀个巨⼤的脸在会场?(会场⼤笑)不好意思,今天没法亲⾃来北京,但是很⾼兴参加这个活动。最近就忙着做模型、做产品,我觉得就是做AI,⼀个很正常的状态。回国感觉还是挺好的,吃的好很多。 李⼴密(主持⼈):顺⾬,你能展开聊聊你对“模型分化”这个主题的想法吗?硅⾕也都在分化,⽐如说Anthropic做了Coding,中国很多模型做了开源,过去Coding提得也很快,包括GoogleGemini也没有全都做,它先把全模态这个点做得很好。那你的⽼东家在重点做ToC,因为你是横跨中美的,可以给⼤家讲讲你的体感。就是接下来不管说⾃⼰也好、各家也好,分化这个点你是怎么思考的? 姚顺⾬:我觉得有两个⼤的感受。⼀个感受是ToC和ToB明显发⽣了分化。另⼀个感受是,“垂直整合”这条路,以及“模型和应⽤分层”这条路,也开始出现了分化。 我先说第⼀点。很明显,当⼤家想到AI的SuperApp,现在⼤家想到的就是两个:⼀个是ChatGPT,另⼀个是ClaudeCode。⼤家可以认为它们分别是做ToC和ToB的典范。但是我觉得很有意思⼀点是说,我们今天⽤ChatGPT的时候,其实和去年⽤,对于⼤部分⼈、⼤部分时候来说,感受到的变化,已经没有那么强烈了。但是相反,以ClaudeCode来说,Coding的⾰命可能⼀年前还没有开 始,但是这⼀年,夸张⼀点说,已经在重塑整个计算机⾏业做事的⽅式。⼈已经不再写代码,⽽是去⽤英语和电脑去交流。 很核⼼的⼀点是,对于ToC来说,⼤部分⼈⼤部分时候其实不需要⽤到这么强的智能。可能今天⽤ChatGPT和去年相⽐,写抽象代数或者去解伽罗⽡理论的能⼒变强了,但是⼤部分⼈感受不到。⼤部分⼈其实可能还是在,尤其在中国,更多像是⼀个搜索引擎的加强版,很多时候你也不知道该怎么样去⽤,去把它的智能给激发出来。 但是对于ToB来说,很明显的⼀点是,智能越⾼很多时候就代表⽣产⼒越⾼,就代表你可以赚的钱越多,这⼀切东西都相关联。那对于ToB来说,还有⼀个很明显的点:⼤部分时候其实很多⼈愿意⽤最强的模型。可能⼀个模型它是200美元⼀个⽉,第⼆强或者差⼀些的模型是50美元⼀个⽉或者20美元⼀个⽉。我们今天发现很多,起码美国的⼈,是会愿意花那个溢价去⽤最好的模型。因为可能他的年薪是20万美元,他每天要做10个任务,那⼀个像Opus4.5这样⼀个⾮常强的模型,它可能会10个任务⼋九个直接做对了,那差的模型它可能做对五六个。问题是你不知道这五六个是哪五六个的情况下,就要花很多额外精⼒去监控这个事情。所以在ToB这个市场上,强的模型和稍微差点的模型,分化会变得越来越明显,这是第⼀点观察。 第⼆点观察,是垂直整合和模型应⽤分层的区别。⼀个⽐较好的例⼦可能是ChatGPTAgent,相对应⽐如⽤Claude或者Gemini加上Manus这样的应⽤层产品。过去⼤家会认为当你有垂直整合的能⼒,你就肯定会做得更好,但起码今天来看,并不⼀定。⾸先,模型层和应⽤层需要的能⼒还是挺不⼀样的。尤其是对于ToB或者说⽣产⼒场景,可能更⼤的预训练(Pre-training)还是⼀个⾮常关键的事情,这个事情对于产品公司确实很难做。但是想要把⼀个特别好的模型⽤好,或者说让这样的模型有它的溢出能⼒,其实也需要在应⽤侧或者说在环境这⼀侧做很多相应的事情。 所以我们会发现,在ToC的应⽤上,垂直整合还是成⽴的。⽆论是ChatGPT还是⾖包,模型和产品是⾮常强耦合去紧密迭代。但对于ToB来说,趋势似乎是相反的。模型在变得越来越强,但也同样会有更多应⽤层的东西想要去利⽤这样的好模型,在不同的⽣产⼒环节发挥作⽤。这是我的两个观察。 李⼴密(主持⼈):我再Follow顺⾬⼀个问题。因为你有⼀个新的⾝份嘛(腾讯),在中国这个市场上,你接下来的想的Bet(下注)或者什么,有哪些鲜明的特点或者关键词吗?能给⼤家Share吗? 姚顺⾬:对,我觉得腾讯肯定还是⼀个ToC基因更强的公司。所以我们会思考,怎么样让今天的⼤模型或者说AI的发展能够给⽤⼾提供更多价值。但有⼀个很核⼼的思考:我们发现很多时候我们的Bottleneck(瓶颈)可能在ToC这⼀端不是更⼤的模型,或者更强的强化学习,或者更强的RewardModel,很多时候可能是额外的Context(上下⽂)和Environment(环境)。 我最近经常举的⼀个例⼦:⽐如说我想问“我今天该去吃什么”。其实你今天问ChatGPT和你去年问、或者明天问,这个事情可能体验都会很差。因为想要变好,不是说你需要更⼤的模型、更强的预训练,这个问题的Bottleneck可能是你需要更多额外的输⼊,或者说Context。⽐如说如果它知道“啊今天我其实特别冷,我需要吃点暖和的”,然后“我今天在这个范围活动”,可能“我⽼婆在另⼀个地⽅,她想吃什么”等等。其实回答这样的问题,更多的Bottleneck是额外的Context。⽐如说我和⽼婆聊了很多天,其实我们可以把聊天记录从微信转发给元宝,或者说把这些额外的输⼊⽤好的话,反⽽会给⽤⼾带来很多额外的价值。这是我们对ToC上的思考。 然后做ToB在中国确实是⼀个⾮常难的事情。⽣产⼒的⾰命,包括我们今天很多中国的公司做CodingAgent其实也是要去打海外市场。这⽅⾯我们会思考怎么去把⾃⼰先服务好。像创业公司做Coding和⼤公司做Coding的⼀个区别是,⼤公司本⾝就已经有很多应⽤场景、各种各样需要⽣产⼒变得更好的地⽅。如果我们模型能够在这些地⽅做得更好,不仅模型会有⾃⼰独特的优势,更关键⼀点是,对于真实世界的更Diverse(多样化)的场景数据的捕捉,会是⼀个很有意思的事情。 ⽐如像Anthropic作为⼀个创业公司,想要做更多的CodingAgent数据,需要通过数据⼚商去标数据。这些数据⼚商需要利⽤软件⼯程师去想“我要标什么样的数据”。那这个事情最后的Bottleneck是数据公司⼀共就这么⼏家,⼈就这么多,Diversity会受限。但是如果你是⼀个10万⼈的公司,可能会有⼀些有意思的尝试,怎么去真的把真实世界的数据给利⽤好,⽽不是仅仅依赖于标注商或者说Distillation(蒸馏)。 李⼴密(主持⼈):多谢顺⾬。接下来Cue⼀下俊旸。你怎么看接下来千问未来的⼀个⽣态位或者分化的Bet?因为你后⾯重点讲了全模态的⽅向。之前阿⾥云在ToB很强,那接下来可能你也提了全模态可能更多ToC的。这⽅⾯怎么思考? 林俊旸:理论上我是不能评论公司的。但是我觉得公司也不⼀定有那么多基因之分,⼀代⼀代的⼈可能就塑造了这些公司。接下来这⼀句其实我也想注⼊⼀些我们⾃⼰对AGI的理解。因为我觉得今天ToB和ToC也好,我们其实是在服务真实的⼈类。所以我们想的问题,是怎么让⼈类世界会变得更好。 你就算做ToC的产品,其实也会再分化。⽐如说今天OpenAI已经更像⼀个平台了,但是你ToC的话,最终要服务真实的这批⽤⼾究竟是谁?今天可能有很多AI可能会更偏向Medical,更偏向Law,但是它可能是⾃然形成。 我愿意相信Anthropic可能不是说“今天我觉得Coding真的很厉害,我就Beton它”。因为我知道他们跟Business交流真的⾮常多。这个可能也是我们⾃⼰做的还不够好的⼀个点,虽然我们拥有巨⼤的优势。当然也有可能中国这个SaaS市场跟美国确实不太⼀样,他们确实是⾮常频繁地跟客⼾交流,很容易去发现这个很⼤的机会。今天我跟美国的很多API⼚商聊起来,他们都没有想到Coding的Token消耗量居然会这么⼤。其实在中国其实还真的没有那么⼤,⾄少从我这边来看。但是在美国的话,基本上全都是Coding。这个事情我觉得不是所有⼈都能Bet到的。那今天Anthropic在做更多跟Finance相关的东西,我觉得也是他们在跟客⼾交流中看到的机会。 所以我觉得⼤家的分化可能是⾃然的分化。所以我更愿意去相信AGI做AGI该做这个事情,然后顺其⾃然。 李⼴密(主持⼈):多谢俊旸。杨强⽼师,您对分化这个问题怎么看? 杨强:分化的问题,其实我更想聊⼀下⼯业界和学术界的分化。这个可能是横跨美国和中国。⼀直以来,学术界是⼀个观望者,⼯业界在领头疯跑。搞得现在很多学术界的⼈也在做⼯业界的事,像唐杰⽼师。 这是⼀个好事,就好像天体物理学刚开始是以观测为主,伽利略的望远镜,然后才出现⽜顿。所以后⾯⼀个阶段,当我们有了众多的稳定⼤模型,进⼊⼀个稳态的时候,我们学术界应该跟上来。跟上来解决什么问题呢?就是⼯业界可能还没来得及解决的⼀些问题。这也是我⼀直在考虑的问题,就是说智能上界在哪⾥?⽐⽅说给你⼀定的资源,计算资源或者能源资源,你能做到多好?可以更细⼀点。⽐⽅说我们把这个资源怎么分配?哪些分配在训练上,哪些分配在推理上? 我很早就做AI,90年代初就做过⼀个⼩实验:如果我们有⼀定的投⼊在记忆上⾯,那么这个记忆能够帮助推理多少?然后这个帮助,会不会变成反向的,⽐如记住了太多的噪⾳,反⽽⼲扰了推理?有没有⼀个平衡点?这些问题今天还是适⽤的,是⼀个Fundamental(基础)的问题。 最近我也在想另外⼀个问题,⼤家学计算机的都上过理论课,有⼀个重要定理叫哥德尔不完备定理。⼤概意思是说⼀个系统、像我们⼀个⼤模型,它是不能⾃证清⽩的,必定有⼀些幻觉是不可能消灭掉的。那可能你给更多的资源,它会消灭得更多。科学问题就来了:多少资源能够换取多少幻觉的降低?这是⼀个平衡点,特别像经济学的⻛险和收益的平衡。所以我们也叫“⽆免费午餐定理”。这些东西今天特别适合数学界、算法界和⼯业界⼀起来做研究,这孕育着巨⼤的突破。 刚才唐杰⽼师也提到持续学习。我觉得持续学习是⼀个特别好的问题。它⾥⾯有⼀个时间的概念。在持续学习过程中,你会发现,⽐⽅说把不同的Agent串联起来,每⼀个Agent都不能做到100%,那么在N个以后,能⼒是按指数下降的。怎么样保证它不下降?我觉得⼈类是个样本,⽐如说第⼀天是学习,第⼆天会在第⼀天的噪⾳的基础上学习,这样你的能⼒就会类似⼤模型,会下降。但是⼈类有⼀个⽅法来解决