您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [美团]:2025美团技术年货 - 发现报告

2025美团技术年货

2026-01-28 美团 亓qí
报告封面

前言 新春将至,美团技术年货如约而来。感谢这一路上,伙伴们的并肩前行与坚定支持! 时光荏苒,美团技术博客已经陪伴大家走过了第 12 个年头。过去一年,美团技术团队在持续深耕中积累了诸多值得分享的实践案例与开源项目。尤其值得关注的是,美团 LongCat 团队在大模型开源领域取得了不少亮眼的成果,这一年,我们陆续发布了覆盖基座模型、图像、视频、语音等多个方向的开源产品与工具,持续助力 AI 技术共享与生态繁荣。 截至目前,美团技术团队微信公众号已累计发布 640 余篇技术文章,感谢大家一路相伴,共同见证我们的成长。 值此马年春节来临之际,我们精选过去一年美团技术团队微信公众号发布的 40 多篇优质技术文章,精心汇编成一本近 600 页的电子书。谨以此作为一份特别的新年礼物,献给每一位热爱技术、持续探索的同学。祝大家在新年里,一「马」当先,「马」到成功! 这本电子书的内容涵盖大模型、开源、AI Coding、安全、数据库、智能硬件、AB实验等多个技术领域。同时收录了一些美团技术团队与高校的合作成果,以及被多个国际顶级会议收录的论文合集,希望能为大家的工作和学习带来一些启发与助力。也欢迎大家将这份电子书分享给更多志同道合、追求进步的伙伴,让我们一起携手共进,砥砺前行。 新的一年,愿大家继续乘风破浪,在挑战中铸就辉煌;以坚定的步伐,踏出属于自己的未来之路。 iii>2025美团技术年货 目录 大模型&开源 1 美团正式发布并开源LongCat-Flash-Chat,动态计算开启高效AI时代1LongCat-Flash-Thinking正式发布,更强、更专业,保持极速!6LongCat-Video视频生成模型正式发布,探索世界模型的第一步11LongCat-Flash-Omni正式发布并开源:开启全模态实时交互时代15美团开源LongCat-Audio-Codec,高效语音编解码器助力实时交互落地23美团发布LongCat-Image图像生成模型,编辑能力登顶开源SOTA30美团LongCat-Video-Avatar正式发布,实现开源SOTA级拟真表现41开源| MeiGen-MultiTalk:基于单张照片实现多人互动演绎48开源| InfiniteTalk:无限长虚拟人视频生成的新范式63LongCat上线AI生图!精准高效,AI创作不设限75R-HORIZON:复旦&美团联合提出LRMs长程推理评测框架87AMO-Bench:突破AIME评测饱和困境,重新重定LLM数学上限97VitaBench:基于复杂生活场景的交互式Agent评测基准107美团开源OIBench与CoreCodeBench:揭示大模型编程能力的真实水平119美团M17团队开源Meeseeks评测集:揭秘大模型的“听话”能力140 美团LongCat团队发布全模态一站式评测基准UNO-Bench148大模型剪枝新范式:先浓缩,再剪枝——DenoiseRotator技术解读165可验证过程奖励在提升大模型推理效率中的探索与实践173美团LongCat Interaction团队发布大模型交互系统技术报告WOWService180 研发基本功&智能硬件189 MTGR:美团外卖生成式推荐Scaling Law落地实践189AI Coding与单元测试的协同进化:从验证到驱动208JDK高版本特性总结与ZGC实践231从0到1建设美团数据库容量评估系统259鸿蒙应用签名实操及机制探究273OR算法+ML模型混合推理框架架构演进304美团智能头盔研发实践系列01:硬件设计篇314美团智能头盔研发实践系列02:软件功能篇328 学术论文&科研合作成果338 ICLR&CVPR 2025美团技术团队论文精选338ACL 2025 |美团技术团队论文精选351ICCV 2025 |美团论文精选及多模态推理竞赛冠军方法分享362NeurIPS 2025 |美团技术团队论文精选372预测技术在美团弹性伸缩场景的探索与应用384行为正则化与顺序策略优化结合的离线多智能体学习算法398 v>2025美团技术年货 可信实验白皮书系列文章407 第一部分AB 实验概述407 第一章:走进AB实验407 第二部分基础原理与案例剖析416 第二章:AB实验基础416 第三章:随机对照实验427 第三部分SDK代码应用 535 第八章:开放式分析引擎535 544 总结与展望 致谢544 大模型&开源 美团正式发布并开源LongCat-Flash-Chat,动态计算开启高效AI时代 今天,我们正式发布 LongCat-Flash-Chat,并同步开源。LongCat-Flash 采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,总参数 560B,激活参数18.6B~31.3B(平均 27B),实现了计算效率与性能的双重优化。 根据多项基准测试综合评估,作为一款非思考型基础模型,LongCat-Flash-Chat在仅激活少量参数的前提下,性能比肩当下领先的主流模型,尤其在智能体任务中具备突出优势。并且,因为面向推理效率的设计和创新,LongCat-Flash-Chat 具有明显更快的推理速度,更适合于耗时较长的复杂智能体应用。 目 前, 我 们 在 Github、Hugging Face 平 台 同 步 开 源, 同 时 你 也 可 以 访 问 官 网 https://longcat.ai/,与 LongCat-Flash-Chat 开启对话。 技术亮点 LongCat-Flash 模 型 在 架 构 层 面 引 入“零 计 算 专 家(Zero-Computation Ex-perts)”机制,总参数量 560B,每个 Token 依据上下文需求仅激活 18.6B~31.3B参数,实现算力按需分配和高效利用。为控制总算力消耗,训练过程采用 PID 控制器实时微调专家偏置,将单 Token 平均激活量稳定在约 27B。 此外,LongCat-Flash 在层间铺设跨层通道,使 MoE 的通信和计算能很大程度上并行,极大提高了训练和推理效率。配合定制化的底层优化,LongCat-Flash在 30 天内完成高效训练,并在 H800 上实现单用户 100+ tokens/s 的推理速度。LongCat-Flash 还对常用大模型组件和训练方式进行了改进,使用了超参迁移和模型层叠加的方式进行训练,并结合了多项策略保证训练稳定性,使得训练全程高效且顺利。 针对智能体(Agentic)能力,LongCat-Flash 自建了 Agentic 评测集指导数据策 略,并在训练全流程进行了全面的优化,包括使用多智能体方法生成多样化高质量的轨迹数据等,实现了优异的智能体能力。 通过算法和工程层面的联合设计,LongCat-Flash 在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,LongCat-Flash 在 H800上达成了 100 tokens/s 的生成速度,在保持极致生成速度的同时,输出成本低至 5元 / 百万 Token。 性能评估 全面且严谨的评估表明,LongCat-Flash 是一款强大且全能的模型,它在多个领域表现出卓越的性能优势。以下将从不同维度详细解读: ●在通 用 领 域 知 识方 面,LongCat-Flash 表 现 出 强 劲 且 全 面 的 性 能: 在ArenaHard-V2 基准测试中取得 86.50 的优异成绩,位列所有评估模型中的第二名,充分体现了其在高难度“一对一”对比中的稳健实力。在基础基准测 试中仍保持高竞争力,MMLU(多任务语言理解基准)得分为 89.71,CEval(中文通用能力评估基准)得分为 90.44。这些成绩可与目前国内领先的模型比肩,且其参数规模少于 DeepSeek-V3.1、Kimi-K2 等产品,体现出较高的效率。 ●在智能体(Agentic)工具使用方面,LongCat-Flash 展现出明显优势:即便与参数规模更大的模型相比,其在 τ2-Bench(智能体工具使用基准)中的表现仍超越其他模型;在高复杂度场景下,该模型在 VitaBench(复杂场景智能体基准)中以 24.30 的得分位列第一,彰显出在复杂场景中的强大处理能力。 ●在编程方面,LongCat-Flash 展现出扎实的实力:其在 TerminalBench(终端命令行任务基准)中,以 39.51 的得分位列第二,体现出在实际智能体命令行任务中的出色熟练度;在 SWE-Bench-Verified(软件工程师能力验证基准)中得分为 60.4,具备较强竞争力。 ●在指令遵循方面,LongCat-Flash 优势显著:在 IFEval(指令遵循评估基准)中以 89.65 的得分位列第一,展现出在遵循复杂且细致指令时的卓越可靠性;此外,在 COLLIE(中文指令遵循基准)和 Meeseeks-zh(中文多场景指令基准)中也斩获最佳成绩,分别为 57.10 和 43.03,凸显其在中英文两类不同语言、不同高难度指令集上的出色驾驭能力。 模型部署 我们同步提供了分别基于 SGLang 和 vLLM 的两种高效部署方案,助您轻松部署、快速体验模型效果。 以下为使用 SGLang 进行单机部署的示例: python3-m sglang.launch_server\--model meituan-longcat/LongCat-Flash-Chat-FP8\--trust-remote-code\--attention-backendflashinfer\--enable-ep-moe\--tp8 5>2025美团技术年货 其他更为详细的部署指导请参阅 LongCat-Flash-Chat 仓库: https://github.com/meituan-longcat/LongCat-Flash-Chat 全面开放,即刻体验 前往https://longcat.ai/,立即与 LongCat-Flash-Chat 开启对话。 开源平台地址: ●Hugging Face:https://huggingface.co/meituan-longcat/LongCat-Flash-Chat●Github:https://github.com/meituan-longcat/LongCat-Flash-Chat 此次我们的开源仓库统一采用 MIT License,并允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。 LongCat-Flash-Thinking正式发布,更强、更专业,保持极速! 今天,美团 LongCat 团队正式发布全新高效推理模型 LongCat-Flash-Thinking。在 保 持 了 LongCat-Flash-Chat极 致 速 度 的 同 时, 全 新 发 布 的 Long-Cat-Flash-Thinking 更强大、更专业。综合评估显示,LongCat-Flash-Think-ing 在逻辑、数学、代码、智能体等多个领域的推理任务中,达到了全球开源模型的最先进水平(SOTA)。 同时,LongCat-Flash-Thinking 不仅增强了智能体自主调用工具的能力,还扩展了形式化定理证明能力,成为国内首个同时具备「深度思考 + 工具调用」与「非形式化 + 形式化」推理能力相结合的大语言模型。我们发现,尤其在超高复杂度的任务(如数学、代码、智能体任务)处理上,LongCat-Flash-Thinking 具备更显著的优势。目前,该模型已在 HuggingFace、Github 全面开源: ●HuggingFace:https://huggingface.co/meituan-longcat/Long-Cat-Flash-Thinking ●Github:https