AI智能总结
维持行业增持评级,AI加持下智能驾驶迭代有望提速,产业链迎来价值重估,部分整车企业更为受益。决策层推荐标的:德赛西威、科博达、均胜电子、华阳集团等,受益标的经纬恒润等;执行层推荐标的:伯特利、拓普集团、星宇股份、华域汽车;感知层推荐标的:保隆科技,受益标的联创电子、华依科技等;整车推荐标的:小鹏汽车、理想汽车、长安汽车、比亚迪、长城汽车等,受益标的蔚来汽车、赛力斯、江淮汽车。 由模块化/小模型到端到端大模型。传统自动驾驶算法以模块化部署,功能实现依托众多独立小模型的堆叠,存在累积错误/任务协调不足/维护难度与成本高等问题。未来端到端自动驾驶大模型将实现对模块化/小模型的替代,即可减少运算过程中的误差累积,也可减少模型的优化难度与维护成本。 由基于规则的算法到基于BEV+Transformer的深度学习。基于规则的算法存在应变能力差,驾驶操作不熟练,学习成本高等缺点,因此仅通过规则算法实现等同于或高于人类驾驶员的自动驾驶行车体验存在很大难度。基于BEV+Transformer结构的大模型是当前主流发展方向,可搭建出高准确率3D感知模型,并具有很强的Corner case解决能力,同时,BEV+Transformer大模型还可赋能数据标注、长尾数据挖掘、仿生场景数据生成等工作。 智能驾驶的进一步进化:去高精地图+占用网路。未来自动驾驶技术去除高精地图辅助将成为主流趋势,核心解决方案为BEV结构的搭建和NPN网络的应用。此外,未来也将有更多车企通过占用网络技术(Occupancy)进一步提升大模型泛化能力,进而使自动驾驶模型应对Corner case时更加得心应手。 风险提示:汽车智能化发展不及预期的风险;芯片短缺的风险;汇率与贸易摩擦的风险。 1.投资建议 AI加持下智能驾驶迭代有望提速,产业链迎来价值重估,部分整车企业更为受益。一方面,随着AI大模型技术的应用,高级别自动驾驶加速落地,智能汽车所需要处理和储存的数据量将变得更为庞大,车端运算需要更多的算力与存储空间做支持。此外,为实现车辆的实时响应,车内通信需要具备更快的数据传输速度,以保证短时间内完成数据交换和处理。智能汽车各项要求的提升将带来汽车智能化零部件需求提升和智能化零部件升级浪潮,国内智能驾驶龙头零部件供应商将充分受益。 另一方面,自动驾驶模型升级浪潮将帮助具有先发优势的新势力企业迎来新一轮价值重估。 投资建议:决策层推荐标的:德赛西威、科博达、均胜电子、华阳集团等,受益标的经纬恒润等;执行层推荐标的:伯特利、拓普集团、星宇股份、华域汽车;感知层推荐标的:保隆科技,受益标的联创电子、华依科技等;整车推荐标的:小鹏汽车、理想汽车、长安汽车、比亚迪、长城汽车等,受益标的蔚来汽车、赛力斯、江淮汽车。 表1:推荐公司盈利与估值表 2.自动驾驶发展史:BEV+Transfomer架构成为主流 2.1.由模块化/小模型到端到端大模型 传统自动驾驶算法以模块化部署,功能实现依托众多独立小模型的堆叠。 传统自动驾驶驾驶算法可以划分为感知、决策规划、控制三大模块,其中感知模块是自动驾驶车辆的眼睛,主要任务即通过各种传感器(摄像头、毫米波雷达、激光雷达等)获取车辆周围信息,并将其转为数字信号传输给车载计算机。决策规划模块是自动驾驶车辆的大脑,主要任务即通过机器学习、深度学习、神经网络等算法对感知到的信息进行分析,并据此预测移动障碍物的行进路线,并规划出最优的行车策略,发出行车指令。控制模块是自动驾驶车辆的四肢,主要任务即根据生成的行车指令通过控制单元实现车辆的启停、加减速、避让、转向等操作。在模块化的运作模式下,各个模块之间算法相互独立,模块中各项功能的实现依托于众多小模型的堆叠。小模型可看作针对具体任务或特定场景进行开发的算法,在不同场景下的复用率较低。 传统模块化/小模型的架构存在累积错误/任务协调不足/维护难度与成本高等问题。在模块化/小模型的运作模式下,研发任务被分类切割,优点在于算法问题便于回溯,模型的调试迭代也相对简单,但由于将不同任务解耦,各个模块相对于最终的驾驶规划目标存在信息损失问题,且多个模块间优化目标不一致,误差将在之间传递,因此传统的模块化部署结构存在累积错误或任务协调不足等问题。此外,随着智能驾驶等级的提升,车载智驾功能增多,车辆所需要应对的场景也更加丰富,这就使得传统架构下小模型的数量大幅增加,不仅提升了维护难度,也增加了算法搭建成本。 端到端的自动驾驶大模型是未来发展趋势。端到端自动驾驶方案是将感知、决策规划、控制所有环节融合的一体化模型,其能把传感器收集到的信息直接输入到统一的深度学习神经网络中,处理后直接生成驾驶命令。端到端方案用一个大模型实现了原先模块化架构下多个小模型的功能,一方面避免了原先多模块下“流水线”工作导致的误差累积,另一方面,端到端模型能做到更好地集中资源,实现功能聚焦,因为研发人员仅需对一个模型进行训练与优化即可,省去了大量繁琐工作。 图1:端到端的自动驾驶大模型是未来发展趋势 2.2.由基于规则的算法到基于BEV+Transforme r的AI大模型 传统自动驾驶基于规则驱动,解决Corner case能力有限。行业内模块化架构下的传统自动驾驶算法大多基于规则驱动,即在各个模块内通过基于提前人工书写的规则进行演算。规则驱动使自动驾驶模型处理问题过于刻板,判定逻辑存在局限性,因此难以实现对丰富的场景全面覆盖,不符合当前自动驾驶要求持续提升及驾驶场景不断拓展的大趋势。具体来看,规则算法的局限性主要体现在无法解决非确定性场景、强交互场景、强主观场景三大类Corner case。 图2:基于规则的自动驾驶解决方案 1.非确定性场景。非确定性场景即超出一般规则之外的概率事件,例如红灯停绿灯行、白色实线禁止变道等为确定性场景,而辅道车辆是否并入主道,行人横穿马路等为非确定性场景。基于固定规则的算法难以合理预测非确定场景的发生,从而引发安全隐患。 2.强交互场景,即多个物体相互之间互相影响,导致最终运行轨迹无法准确描述的情况。以十字路口交通为例,众多行人与车辆间存在博弈,场景十分复杂,固定的规则难以做到准确判断。 3.强主观场景,即需要依托驾驶员主观习惯进行处理的场景。例如驾驶员通常会根据周围情况无意识的调整与前车的距离,考虑因素包括变道时机、其他车辆的行驶情况等。驾驶员对该类场景的判定规则较为抽象,很难通过固定的规则去模拟。 除此以外,基于规则的算法还存在驾驶不平滑、成本高、维护难度大等问题。基于规则的算法给出的指令单一且独立,通常很难做到根据短时间内的变化进行实时调节,因此存在行驶体验不平滑的问题,以超车场景为例,自动驾驶车辆超车时遭遇右方车辆超车,原先规划的超车路线将被替换为返回原车道路线,基于规则的算法很难完成上述两个指令的平滑过渡。此外,为了持续优化自动驾驶模型,基于规则的算法需要不断添加大量代码,一方面使逻辑混乱,提高了算力需求,另一方面,系统的维护及迭代难度加大。 整体来看,规则算法的弊端可以总结为其“低拟人性”,包括应变能力差,驾驶操作不熟练,学习成本高等,因此仅通过规则算法实现等同于或高于人类驾驶员的自动驾驶行车体验存在很大难度。 从规则算法到AI大模型,自动驾驶更具拟人化。深度学习(AI大模型技术)从本质上优化了自动驾驶算法的运行机制,是未来发展趋势。深度学习的目的在于建立和模拟人脑进行分析学习的神经网络,通过模仿人脑的接受和反馈机制来解释数据,深度学习的整个过程就是数据收采集、数据处理、数据训练和数据优化,最后形成高准确率的识别分类模型。基于深度学习的端对端自动驾驶大模型可以做到自动提炼特征找规律,进而提升算法的“拟人性”,使自动驾驶算法优于人类驾驶员成为可能。 图3: 深度学习在自动驾驶中的应用 早期引入自动驾驶的深度学习方法为CNN+RNN,CNN负责空间信息处理,RNN负责时间序列数据处理: CNN即卷积神经网络,是早期自动驾驶技术引入的深度学习神经网络,用于处理图像等空间信息,本质上是在信息传入传统神经网络前先做一个特征的提取并进行数据降维。在深度学习兴起之前,计算机视觉系统是基于手工制作的特征来实现的,而CNN能够自动学习编码在训练集中的特征空间的表示,极大提升了工作效率。 图4:CNN的基本结构 RNN即循环神经网络,主要处理时间序列数据,可用于完成目标跟踪以及视野盲区预测等感知任务。 IPM即逆透视变换技术,用于实现2D图像向3D图像的转变,原理为通过摄像头成像过程中的坐标转换公式将2D坐标转变为3D坐标,再通过3D坐标进行3D图像搭建。基于IPM技术进行3D成像属于后融合策略,即负责处理该任务的模块为决策层域控制器,优点在于传感器与系统高度兼容,且车端算力要求低,缺点为易产生信息失真,或引发决策错误,并对恶劣天气的适应能力差。 图5:通过IPM实现2D到3D坐标转换 传统神经网络CNN+RNN难以精确形成3D感知。传统摄像头收集到的数据是2D图像,但自动驾驶车辆面对的现实世界是3D的,因此需将2D图像数据通过模型分析融合后升维至3D,以赋予自动驾驶车辆更可靠的感知能力。对此,行业里早期的处理方式为采用CNN/RNN+IPM结合的方式实现3D视角绘制,但此方案对于成像环境的要求较高,且CNN+RNN神经网络下的2D至3D数据处理精度较差,经常导致转换出来的3D场景与实际场景失真。 BEV+Transformer架构大模型是当前发展方向,使搭建高精度3D感知模型成为可能,并显著提升Corner case处理能力: BEV即Bird`s Eye View,是一种将三维环境信息投影到二维平面的方法,以俯视视角展现环境中的物体,能帮助自动驾驶系统更好的理解周围环境,进而做出准确性更高的决策。BEV感知策略的实现方式是通过多个摄像头(或辅以激光雷达、毫米波雷达等)获得全方位视角图像,再通过共享2D特征提取器对不同摄像头获取的画面进行重建、拼接,最终形成3D全局视角。与传统后融合策略不同,BEV感知策略借用统一的BEV空间实现了特征级融合,数据失真率低,感知准确率更强。 图6:B EV感知策略可形成3D全局视角 Transformer是一种基于自注意力的深度学习模型,该模型并不像CNN+RNN通过串行顺序处理数据,而是通过自注意力集中机制捕捉序列中不同元素的相关性,更适应BEV感知下的数据融合与处理。目前Transformer已凭借强大的序列建模能力与全局信息感知能力成为了自动驾驶首选大模型,一方面可以充分利用海量数据,搭建自动驾驶高速迭代的闭环,另一方面,Transformer在图像存在扰动与遮挡的情况下,具备很强的鲁棒性和泛化性,进而赋予自动驾驶更高的稳定性。 基于BEV与Transformer的深度学习模型能赋予自动驾驶车辆更强的3D感知能力。具体实现方式为:通过多个摄像头形成环视图像,并在BEV空间内初始化特征,再通过多层Transformer和2D特征进行交互融合,最终实现BEV特征。BEV与Transformer结构使高准确率的3D视角成像成为可能,大幅提升了自动驾驶车辆的感知能力。 图7:通过Transformer实现BEV空间转换 基于BEV与Transformer的自动驾驶深度学习模型能更好解决Corner case。结合BEV与Transformer技术可以构建出端到端的自动驾驶系统,实现高精度的感知、预测和决策,模型处理Corner case的能力亦获得大幅提升,可解决场景包括但不限于遮挡道路、预测异常行为、恶劣天气情况、复杂道路状况等。目前特斯拉、理想、小鹏等均已率先实现对BEV与Transformer技术的应用,后续各整车品牌有望积极跟进布局。 图8: 特斯拉BEV+Transformer技术识别框架图 BEV+Transformer架构下的AI大模型还可赋能数据标注、长尾数据挖掘、仿生场景数据生成等工作。 大模型可实现自动标注,提升数据处理速度与精度,降低成本。传统自动驾驶方案的数据挖掘基于规则