2025中国汽车智能化创新峰会——舱驾融合专题论坛-20250427_原文 2025年04月28日10:24 发言人100:00 是我们必须要考虑到这样的话,我们才能说称之为是一个比较合格的这样一个智能体。 发言人100:05 第一个其实还是说我们在�行过程当中,你对整个环境人等等的这样的一个感知,你要有这样的一个理解。 发言人100:14 第二个的话,其实是我们在�行过程当中,依然对效率和安全是绝对的这样的。 发言人100:20 第一位的我没办法说我可能我有一个智能体开始帮我干活,但过程当中他还需要我再去,不管是我眼睛瞟一下,还是说我要再去用手操作一下,这个可能都是不合适的。 发言人100:32 还有最后一个,因为确实大量的这个场景,它全是多任务串联的。 发言人100:37 他没办法说我都是通过单一的这样的一个智能体来完成。 发言人100:42 那也就是说我们确实需要多智能体的这样的一个协作。 发言人100:45 所以其实拥有这三个特点,我们认为车载这样的一个场景才是L三智能体的一个最佳落地的这样的一个载体。 发言人100:56 所以我们在整个开发L三智能体的过程当中,也是沉淀了我觉得两套能力。 发言人101:04 第一个的话是智能体生态的这样的一套技术框架。 发言人101:07 第二个的话,智能体的这样的一个协作框架。 发言人101:10 智能体生态技术框架我觉得可能是最近两三年,因为大量的原来我们可能在车上开发的各种各样的APP,包括接入第三方的,不管是APK,API等等各种各样的一些接口或协议。 发言人101:23 其实今天是需要重新被,刷新的,而且需要去跟这个车载的我觉得模型去做这样的一个对接的。 发言人101:32 所以其实我们提供了一套车载能力的一套使用的体系,来快速的实现ajit化。 发言人101:39 第二个的话,本身其实在agent开发过程当中,也需要各种各样的一些开发工具。 发言人101:43 这里面不管是一些UIagent的能力,包括也用一些多模模型能力,还有一些渲染能力。 发言人101:50 这样的话能够支持所有的这些智能体的快速开发和接入。 发言人101:54 这个其实是我们整个开发过程当中自己沉淀的一些工具,可以提供�来去使用。 发言人101:59 当智能体的协作框架这件事儿,我就现在其实对于行业整个趋势的,我觉得一个solo,确确实实也需要我们多智能体来协作。 发言人102:11 这个不仅是说我们要通过一个系统级的agent他去做安排和调度,也需要去让智能体之间获得这种通讯talk的这样的一个能力。 发言人102:23 其实在整个我觉得智能体本身,可能未来在车载端它也会有一个很强的自己的一个车载智能体的生态。 发言人102:31 我们在整个探索的过程当中,也跟不同的这个生态伙伴去打造了一些样板间。 发言人102:37 因为今天看整个�行其实有两大服务还是必不可少的,而且非常刚需的。 发言人102:43 一个是对内容的需求,第二个是对于整个服务的需求。 发言人102:49 对内容的需求,其实今天我们需要重新去把原来那些在存在APP里面的非常多的这种内容,或者说那种能力把它拿�来重新去定义,重新去编排。 发言人103:01 并且我们其实在用户的交互体验上面,我们要去让他可以个性化的推荐,可以去做这种互动。 发言人103:10 所以我们是跟喜马拉雅联合打造了一个车载L三级的这样一个内容助手。 发言人103:16 然后第二个是我们关于这个�行生活的那其实现在的车载的小程序就是微信的这样车载小程序本身它就是容包包括了海量的这样的一个各种各样的一些应用。 发言人103:29 但今天其实我们需要把它跟我的money,就是跟我的整个模型也要去做很好的这样的闭环和调用。 发言人103:38 今天这两个大的服务生态体,其实已经在我们这边实现了一个接近量产的状态。 发言人103:45 现在已经在这个车厂这边,正在项目的开发投资过程当中。 发言人103:52 谈到各种终端,我觉得还是离不开。 发言人103:56 最后会聊到交互。 发言人103:58 交互这件事情其实从过去我觉得单线程的输入到输�。 发言人104:02 我觉得今天通过AI在全链路上的这样的一个加持,肯定是会得到一个全新的。 发言人104:08 我觉得一个AI交互的一个体验。 发言人104:10 这种交互可能行业里面有些比较热门的词,我要把它拎�来。 发言人104:14 这个所谓的叫HAI就是hen就是机器,它已经拥有了智慧,所以可能它是跟AI去交互,它甚至不是交互,是一种interaction。 发言人104:24 我觉得今天其实对于整套AI的系统来说,它不仅是从前面的这种输入端,我要去做AI的这种感知和理解,以及到中间过程当中我们去做这种服务和内容的生成。 发言人104:38 到最后我们在整个的呈现上面,其实也要去做这种AI的表达。 发言人104:43 这种AI的表达它其实要完成的是无感化、场景化,还有情感化。 发言人104:48 所以我们针对这样的一种深层式交互的这样的一个思考,我们也沉淀的几种能力。 发言人104:58 第一个的话是AIM的一种引擎的能力。 发言人105:01 它能够实现的就是对于所有的这种我们今天看到的在车机上面各种各样的卡片APPlist。 发言人105:08 我们今天可以让他重新去对于所有的这种图标come,包括里面的内容和图片,直接由情景触发之后来做实时的生成和表达。 发言人105:21 这样的话其实能够达到的是一个叫千景千面的这样的零层级的AI的一交付桌面。 发言人105:29 当然还有就是UIit就是AIA的这样的一个通用的操作框架。 发言人105:35 这种框架其实能够实现的真的是可可想即可得对。 发言人105:40 就是原来我们可能是在语音交付的时候是可见吃可说,今天是可想即可得,因为你不需要看到,你只要讲就可以了。 发言人105:47 因为我们有一个这样的agent来进行这样的一个帮你去做操作。 发言人105:53 最后其实我们也在探索关于整个AIAI呈现或者说这样的一个表的。 发言人105:57 过去我们都说车里面有个蜂蜜,好像就非常人人性化,它是一个mate。 发言人106:04 但未来是否还有全新的这种表达形式,这个其实今天我们也在思考。 发言人106:09 包括我们跟一些生态伙伴,其实引入了一些新的中终端。 发言人106:14 包括我们把一种类人形机器人,把它做成了一种非常好的表达的一个终端,也放在车里面。 发言人106:21 所以这个都是我们在整个过程当中的一些探索。 发言人106:24 时间有限,我快速的去把最后一部分内容完成。 发言人106:29 这个在整个AIDV的这样的一个时代,其实原来我们从软件定义汽车,我觉得有一个非常好的分层解耦,非常好的这种原子化能力的这样的一个基座,能够去让我们应用开发去调用。 发言人106:45 但是今天如果它变成了是由模型来驱动,然后内容跟服务都是在做深层式,其实我们今天还需要一种全新的或者说升级的一个AIOA的这样的一个概办理。 发言人106:56 但是其实他需要在原有的这个7座基座之上,要有五个新的需求就�现了。 发言人107:03 不管是对于能力本身,它有可能比如原子化能力,它需要的越来越多。 发言人107:08 对,包括可能还有这个智能体的这种公共的开发的AI服务也需要去做增强,以及还有一些多智能体之间的一些协作的标准和协议。 发言人107:19 还有再加上我们以前可能讲这个车和多端也要去做这种连接。 发言人107:26 但是未来如果说大家都是AI中端了,那还需要有AI终端跨端之间的一些协作。 发言人107:32 所以这也需要新的架构。 发言人107:34 在整个思考这件事儿的时候,我们也去输�了这样的几种工具,第一种的话就是关于于整个SUV的这样的一个升级。 发言人107:44 这个本身是我们公司在过去在做整个SUV或者说中间建这样一个平台上面。 发言人107:50 我们会去提供更多的比如像DDS这样的一些基础解决方案,去满足更多更灵活的这样的一些调度了。 发言人107:59 第22个其实是整个服务接口的MCP化。 发言人108:02 我觉得这件事情其实现在有非常多的合作伙伴也都在做,我觉得这个也确实非常有必要。 发言人108:08 然后第三个是我们在整个AI的框架里面,其实也做了很多这种新增加的抽象的能力。 发言人108:15 这个的话就相当于原来我们在开发软件的时候有一个工具箱。 发言人108:19 那今天其实你开发的是一个AI的agents,但它可能是整车级的那也需要一些增加新的这种公共的服务能力,包括这种类记忆能力,感多么感知的执行的一些能力,隐私等等等等。 发言人108:32 最后可能是一些智能体协作的一些标准的一些框架的能力,这些其实是我们当下在往这个AI毕竟汽 车,我觉得当然还有非常长的路要走,我们也是一步一步的探索,然后逐渐的去沉淀产品,然后输�这样的工具和能力。 发言人108:49 最后这一页其实是对于刚刚整个一加三能力的这样的一个分层的沉淀。 发言人108:56 那这样在这样的一个层就分层的这样的一个架构里面,我们其实也做到了跟底层的这样的一个SOC,以及跟我们的模型可插拔可结偶然后每一层能力都是可以去做分层的输�和被集成的那这个可能是地 图,我们作为一家在AI行业,就是专注于做汽车厨域,以及在汽车领域专注于做AI系统。 发言人109:21 我觉得可能是我们当下的一些探索和思考。 发言人109:25 也也欢迎大家后面能够和我们多交流,也有机会去体验我们的产品。 发言人109:31 刚刚以上所提到的所有的这些情景跟场景,现在已经在落地当中。发言人109:36 就是我们已经不是PPT这个皂皂AI系统了,我们已经是有实车有台价可以去体验。 发言人109:43 也欢迎后面大家有机会我们可以做深入交流。 发言人109:46 好的,感谢大家,谢谢。 发言人109:48 好,谢谢,非常感谢李总的精彩演讲,来有请入座。 发言人109:57 接下来我们将进入到峰会的第三个板块,端到端自动驾驶专题论坛。 发言人110:04 在自动驾驶端到端架构设计中,newmax研发了基于decalonemodel端到端技术架构,特别是对mm解码器在自动驾驶中的应用进行了深入探索,在架构设计和工程化落地方面均取得了非常不错的进展。 发言人110:23 接下来让我们欢迎newmax首席科学家陈二康博士带来演讲,主题为端到端onemode架构设计,有请。 发言人110:39 很感谢主办方的邀请。 发言人110:42 然后今天很高兴和大家分享一下,老马可在这个重驾驶相关领域的一些工作。 发言人110:50 那么今天的工作,今天的分享就主要分为三个部分,我会快速的介绍一下公司。 发言人110:58 然后第二部分是我们在做的这个感知相关的一些工作,我们叫做BVI9架构。 发言人111:04 最后我们会重点分享一下,如何把感知BVI感知扩展到这个感知规划端的抵扣的这个机构架构的设计。 发言人111:15 纽劢科技是行业领先的人工智能的科技公司。 发言人111:19的发展历程。 发言人111:20 我们2016年在硅谷成立,2017年研发中心搬回上海。 发言人111:27 经历了在1.0时代,我们获得了德赛西威的二战略投资。 发言人111:33 在2.0时代我们拿到多个量产的定点项目。 发言人111:39 在2023年10月份,我们获得了盐山科技的1亿美元的利润融资。 发言人111:45 在