您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:西部汽车各算法公司对Deepseek应用情况及观点更新0206 - 发现报告

西部汽车各算法公司对Deepseek应用情况及观点更新0206

2025-02-07未知机构福***
西部汽车各算法公司对Deepseek应用情况及观点更新0206

知行汽车科技:已经开始用用,测试了200+视频,效果较好;效率提升较高,认为能够让原本的小算力芯片生命周期延长。 (本周五2.7晚上19:00我们邀请公司技术人员电话会交流) 大疆:使用Deepseek模型后,在高通8650上,推理响应时间从20ms降至9-10ms,算力利用率从近乎100%降至65%。 【西部汽车】各算法公司对Deepseek应用情况及观点更新0206 知行汽车科技:已经开始用用,测试了200+视频,效果较好;效率提升较高,认为能够让原本的小算力芯片生命周期延长。 (本周五2.7晚上19:00我们邀请公司技术人员电话会交流) 大疆:使用Deepseek模型后,在高通8650上,推理响应时间从20ms降至9-10ms,算力利用率从近乎100%降至65%。 275个视频测试,打分更优,对比千问开源模型,97vs95分。 Momenta:24年12月底开始探索应用,主要用来压缩感知模块,提升效率。 第1版识别精度较差,但后续会调试预计1-1.5月有新结果更新。 效率方面:第1版模型训练时间减半,感知结果输出时间减半。 元戎启行:deepseek作为vlm的一个高性能低算力需求,确实是一个不错的参考,特别是vlm+E2E。 轻舟智航:之前在端到端大模型方面尝试不多,后续会考虑积极应用。 我们发现:不同的公司对Deepseek的应用关注点有差别,知行&大疆&元戎更多是关注到了决策规划层面,而Momenta更多是在感知方面。 我们认为和公司当前核心的关注点有关系。 Momenta当前希望一段式端到端在单OrinX跑通,而感知最耗算力希望效率加以提升。