您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [未知机构]:【民生电子】2025春季火山引擎大会纪要20250612 - 发现报告

【民生电子】2025春季火山引擎大会纪要20250612

2025-06-12 未知机构 福肺尖
报告封面

1.主会场 1.1火山引擎新品发布 豆包大模型25年5月日均调用tokens数字提升至16.4万亿+,在中国公有云大模型服务调用量第一(46.4%) 模型能力提升,逐步解锁更多新场景,从24年12月和25年5月的tokens调用对比中,随着深度推理模型的发布,AI工具类的tokens消耗正在快速的增长,5个月增长了4.4倍,其中AI搜索增长了10倍,AI编程增长了8.4倍; 另一方面,视觉理解模型式模型tokens增长的另一个助推器,比如K12的教育在线教育场景,由于视觉理解模型能力的不断提升,tokens的消耗数在5个月内,增长了12倍,同时新出现一些线下的场景,比如说智能巡检、视频检索等也快速实现了日均百亿tokens的突破。 在行业内大模型的应用也在不断的深化: 在消费电子行业,全球TOP10的手机厂商已经有9家选择和火山引擎深度合作; 汽车行业,大模型覆盖了从智能座舱到智能营销,再到自动驾驶标注等全流程场景,豆包已助力80%的主流汽车进行AI升级; 在金融行业,火山引擎为客户提供了智能展业、投顾、投研等大模型应用方案,已经服务了华泰证券、国信证券等数十家券商和基金公司,以及招商银行、浦发银行、民生银行等70%的系统性重要银行; 在教育行业,火山引擎提供大模型解决方案已经和北京大学、浙江大学、南开大学等超五成的985高校达成了合作,持续的推动高等教育的智能化转型。 在技术层面,大模型本身也在飞速进化,从感知AI到生成式AI,再到AgenticAI,我们希望大模型不再仅仅是完成信息的识别、处理和生成,而是能够自主的推理、规划、反思、执行任务,从而去构建复杂业务闭环的智能体。当前阶段,深度思考、多模态理解和工具的自主调用是模型进化的关键方向。 把技术栈展开,目前正处于从PC时代到移动时代再到AI时代的三个时代的变化之中,其中最大的变化是技术主体,变化趋势子啊与Webs-APPs-Agents。 接下来会介绍火山引擎的一系列新产品: 安全是一切Agent运行的基础,Agent可能成为恶意攻击的载体。针对此,火山引擎发布两款全新AI安全产品。 第一款是AICC密态计算,在保证推理效果的基础上,让企业能像使用私有化模型一样,安全使用云端服务; 第二款是大模型应用防火墙,脱胎于火山方舟每天16万亿tokens的防护过程,通过精调的小参数模型、分层漏斗策略和流式的送检机制,能够低延迟、高精度的拦截攻击变种,为企业智能体应用构建一个安全可信的推理空间。 携手联想、中国银联、长安汽车等合作伙伴携手做好AI应用落地安全体系。 豆包帮助企业客户转型:知识问答是飞书近期推出的AI新功能,受到了众多企业的欢迎,融合外部与企业的专属知识,并且严格的遵循知识权限,精准的回答业务问题,目前飞书问答已经在安克创新、地平线等诸多企业实现了落地; 瑞幸咖啡合作豆包打造AI点单智能体;顺丰合作打造员工专属AI助理;帮助百盛中国实现AI智能陪练系统。 豆包全新升级: 豆包大模型1.6系列由三个模型组成,分别是Doubao-Seed-1.6、1.6-thinking和1.6-flash。豆包seed1.6是allinone的综合模型,它支持深度思考、多模态理解、图形界面操作等多项能力,特别是在深度思考方面。它支持多种模式,用户可以选择关闭深度思考、开启适度思考和自适应思考三种方式。其中在自适应思考模式下,模型可以根据prompt难度自动的决定是否开启thinking功能,这样就可以在提升效果的同时大幅的减少tokens的消耗。豆包seed1.6也是国内首个支持256k上下文的思考模型。 豆包seed1.6thinking,是深度思考方面的强化版本,只支持深度思考模式,但是在coding、数学、逻辑推理、指令遵循等方面进一步提升,同样也支持256k上下文和多模态推理; 豆包seed1.6Flash,是极速版本,它的延迟极低,TOPO不到10ms,非常适用于低延迟敏感的场景,而且flash仍然有不错的性能,它的文本理解能力甚至超过了豆包1.5light,而它的视觉能解能力更加不错,可以比肩行业里面其他厂商的旗舰产品。 豆包1.6在众多的权威评测集上,得分均属于国际第一梯队。 豆包1.6的边想边搜功能,可以先拆解问题找到关键信息,然后先做一轮搜思考,然后根据缺失的信息进行多轮的搜索。 独家揭秘,豆包APP目前正在小流量的功能——Deepresearch,通过这个功能过去需要专 业人士数天写的专业报告,豆包可以在5~30分钟内完成,而且不仅报告内容好、结构严谨,还能自动地提炼信息总结成网页,方便人们进行查阅。 针对企业中也想实现边想边搜和Deepreasearch功能,在火山引擎官网上线了大模型应用实验室,把各种应用都上线实验室,且把代码进行开源,企业可参考字节的Democode,很快的去搭建自己的AI应用原型,灵活的编排自己的智能体。 豆包1.6的多模态能力:豆包1.6全系列都原生的支持多模态深度思考,让模型更好地理解和处理真实世界的问题,当前功能的最佳的案例就是豆包APP上最新发布的实时视频通话功能。 多模态理解在各行各业都有应用:企业端的电商场景中识别同款,进行比价,审核商家上传照片,推荐类似风格商品;汽车行业中自动驾驶数据标注、保险风控、驾驶培训;线下场景中安全巡检、门店巡检、物流巡检。 此外1.6还具备GUI操作能力,进行酒店筛选、票据整理,能突破传统的APP和GUI限制。 企业规模化利用AI的另一个挑战是价格,特别是Agent开发消耗的tokens较大。当前绝大部分企业的调用大模型的上下文长度,它的输入范围都是在32K以内。 因此豆包的1.6定价选择统一的区间式定价:实现基于上下文长度分布的调度优化 对于大部分企业的使用范围内(0-32k,输入:输出=3:1),豆包1.6的成本为2.6元/百万tokens,相比豆包1.5深度思考和R1下降63%。 火山引擎观察到大规模longthinking模型调用,且请求的输出很短,因此特别设置一个特惠区域: 输入32K且输出200以内的请求,豆包1.6的价格将进一步降低到每百万tokens是0.8 元,而输出只需要2元,意味着可以享受和豆包1.0一样的价格 1.2AICoding Trae截止5月底的最新统计数据,Trae的月活用户超过100万,证明AIcoding在工程师的工作中产生了重要作用; 做AICoding是为了通过技术普惠AI让人人都是开发者,帮助专业工程师提高研发效率,追求智能上限。 Trae的时间实践案例:开发一个英语学习软件,6.10号晚上已经发布,原本开发一个类似软件需要几周,这次AIcoding开发仅3天 Trae的基本功能是代码补全(还能预测用户下一步要改代码的位置),提升效率。团队最早是MarsCode(插件形式),但是很难完全承载AICoding的能力,希望IDE和AI结合后能真正承载,因此研发了Trae。 Trae除了基础能力外,还有代码重构、批量修改等功能。 本次使用Trae用全新的办法写代码:还是以工程师在写代码,除了描述功能外,还用自然语言来描述编码逻辑和技术方案,比如提交答案、增加类型等提示词来实现,用2-300个 提示字写出3-400行代码. 本次开发经过统计,大概85%的代码可以通过自然语言描述让AI生产代码,2-3天仅10个小时的实际开发时间写出3000行代码。 目前Trae是团队在豆包1.6基础上,针对工程开发场景额外做后训练来匹配应用。 同时,开发中预计仅40%是写代码的工作,其他时间用各种工具来做事情,开发者要作为调度者在开发工具中穿梭,后续随着AI大模型能力进步,AI会成为调度者来省去更多繁杂的工作。 因此Trae下一步的努力方向不仅是AICoding,更是AIDevelopment,来学习使用一些工具,允许用户自定义工具让AI来做上下文切换。但无论AI怎么进步,RealAIEngineer也永远离不开人的协作,让专业工程师发挥创造性的工作。 1.3视频生成模型 24年9月发布视频生成模型,各种设计师调用豆包大模型在电影节大放异彩,大会今天也会发布最新的视频生成模型seedance1.0pro,具备无缝多镜头叙事、多动作及随心运镜和稳定运动与真实美感。通过视频生成模型,可以在电商(展示商品)、影视(验证分镜和叙事逻辑)、游戏(易水寒的用户自主创作情节)等领域得到应用,在早期客户测试中得到一致好评。 在全球竞技场中,seedance1.0pro获得gap都认可,在第三方权威机构的评测结果中位居全球第一。 同时seedance1.0pro模型还具备极高的性价比,0.015元/千tokens,即3.67元/个1080P 的5s视频,0.73元/个480P的5s视频。 1.4豆包实时语音模型 语音成为AI应用和Agent核心交互方式,语音大模型在快速发展,很多客户都在深度使用豆包的语音模型。 24年冬季大会上做了实时语音模型预告,今天兑现承诺,豆包实时语音模型正式全量上线方舟,对所有企业客户开放使用。 端到端的能力让模型说话更像人,本次大会还正式发布了豆包语音博客模型,基于端到端实时语音的拓展,可以进行双人/多人的对话等形式。 汽车行业实践:汽车也是语音应用很好的场景,合作奔驰、宝马等公司。 1.4企业Agent开发范式 针对显眼包的报告、介绍网页、营销视频三个实操案例,简单估算效率提升,用1名市场部的产品语音X3天工作=8名员工X3天。 火山方舟一站式大模型服务平台,更强模型、更低价格、更易落地 为实现Agent,首先需要在业务落地中选择更强、更聪明、性价比更高的模型,这是先决条件;其次要把数据基础设施和大模型的能力融合得更好,高效率的数据检索能显著提升大模型的工作表现,知识库和记忆库的巧妙融合也有助于打造更智能的产品体验;Agent落地还涉及很多工具调用,针对Agent效果和持续评估迭代也很重要。 25年扣子开发平台也上线企业版,提供了精细化的权限控制、多租户隔离、全链路安全合规等能力,为企业来保驾护航;全新的扣子罗盘也能帮助开发者们轻松的完成Agent的调试;还推出了扣子空间,重新定义了Agent的开发范式,在这里开发者可以和agent协同工作,PPT生成、图文创作、播客网页搭建等场景都提高了效率。 HiAgent是企业级智能体构建平台,2.0的目标是让AI的智能体走进企业和生产,因此提供三个关键能力,全生命周期持续迭代,并让低代码和高代码更加融合,让业务产品人员和技术专家相互协同,让研发和使用一体化降低部署门槛。 带来新产品和技术,一方面用好AI,另一方面做好AI。 围绕MCP协议,火山引擎致力于链接开发、生态和云服务的三大要素,MCPhub和AI原生IDETRae、方舟体验中心和扣子打通,一键使用200多个MCP协议和服务,还可以与云服务链接。 开发者可透过MCP控制火山引擎的大部分的云服务组件,更便捷地完成计算、网络、存储等环境部署,更快地把一个创意变成一个成熟的产品。 提示词具备很高的重要性: 推出大模型应用落地的领航员——PromptPilot 在开发AI应用的过程中,最初的需求和意图往往是模糊的,开发人员是在和大模型不断的交互中,才能逐渐搞明白自己真正想要的是什么。在第一步中,PromptPilot可以先让开发者以最自然的语言来表达一个模糊的需求,在简单互动中得到一个初步增强后的prompt。 互动中帮助用户明确理想回答和评估标准,允许开发者对答案进行具部的评论和修改,PromptPilot会记录和分析这些批注来整理出用户的真实意图和标准;通过好和坏的对比来体现开发者的判断,让开发者去通过good和bad的对比来表达自己对哪一种的回答更加满意,PromptPilot会在背后自动的比较,分析用户的偏好,猜测用户的逻辑,积累出更完整的真实意图。 像积累数据一样积累case,后续做A