导读:无人驾驶的三个核心要素:传感器、计算平台、数据与算法。
一、传感器:不同定位与功能,优势互补
2021年1-5月国内新发布车型传感器配置及核心功能
摄像头的作用:主要用于车道线、交通标示牌、红绿灯以及车辆、行人检测,有检测信息全面、价格便宜的特征,但会受到雨雪天气和光照的影响。现代摄像头由镜头、镜头模组、滤光片、CMOS/CCD、ISP、数据传输部分组成。光线经过光学镜头和滤光片后聚焦到传感器上,通过CMOS或CCD集成电路将光信号转换成电信号,再经过图像处理器(ISP)转换成标准的RAW,RGB或YUV等格式的数字图像信号,通过数据传输接口传到计算机端。摄像头可以提供丰富的信息。但是摄像头依赖自然光源,目前视觉传感器的动态做得不是特别宽,在光照不足或者光照剧烈变化的时候视觉画面可能会出现短暂的丢失,并且在雨污状况下功能会受到严重的限制,行业内通常通过计算机视觉的方式克服摄像头的各种缺点。
2015-2025年全球和中国车载摄像头市场规模(亿元)
摄像头产业链
2022至2030年中国激光雷达市场展望
激光雷达车型一览表
当前阶段各个技术路线各有优缺点,我们的判断是未来FMCW技术将与TOF技术并存、1550nm的激光发射器会优于905nm,同时市场可能会跳过半固态直接跨越到全固态阶段。
FMCW技术与TOF技术并存:TOF技术较为成熟,具有响应速度快、探测精度高的优点,但无法直接测量速度;FMCW可以直接通过多普勒原理测量速度并且灵敏度高(高出ToF10倍以上),抗干扰能力强,可长距离探测,功耗低。未来可能高端产品用FMCW,低端产品用TOF。
1550nm优于905nm:905nm属于近红外激光,容易被人体视网膜吸收并造成视网膜损伤,因此905nm方案只能维持在低功率下。1550nm的激光,原理可见光谱,同等功率条件下的激光对人眼的损伤更小,探测距离更远,但缺点是需要InGaAs做发生器,且不能使用硅基探测器。
激光雷达的技术路线及代表性企业
高精地图存在被颠覆的可能。路线之争在高级地图领域持续,特斯拉提出了不需要提前测绘的高精地图的方案,用摄像头采集到数据为基础,利用人工智能技术构建环境的三维空间,采用众包的思维,由每一辆车提供道路信息,并在云端统一汇总。因此我们需要警惕技术革新对高精地图的颠覆。
激光雷达+视觉技术,采集车+众包模式是未来高精地图的主流方案。
高精地图需要平衡精度和速度两个衡量指标。过低的采集精度和过低的更新频率无法满足自动驾驶对高精地图的需求。为解决这一问题高精地图企业采用了一些新方法来应对,比如众包的模式,每一台自动驾驶汽车都作为高精地图的采集设备提供高精动态信息,汇总后分发给其他汽车使用。在这一模式下,领先的头部高精地图企业由于可参与众包的车型数量多,因此可以采集更加精确、快速的高精地图,维持强者恒强的局面。
高德地图融合方案
二、计算平台:对芯片的要求不断提高,半导体技术是护城河
计算平台未来有两个发展特点:异构和分布弹性。
异构:面向高阶自动驾驶车辆,计算平台需兼容多种类型,多数据传感器并具备高安全性和高性能。现有单一芯片无法满足诸多接口和算力要求,需采用异构芯片的硬件方案。异构可以体现在单板卡集成多种架构芯片,如奥迪zFAS集成MCU(微控制器)、FPGA(可编程门阵列)、CPU(中央处理器)等;也可以体现在功能强大的单芯片(SoC,系统级芯片)同时集成多个架构单元,如英伟达Xavier集成GPU(图形处理器)和CPU两个异构单元。
分布弹性:当前汽车电子架构由众多单功能芯片逐渐集成于域控制器。高阶自动驾驶要求车载智能计算平台具备系统冗余、平滑拓展等特点。一方面考虑到异构架构和系统冗余利用多板卡实现系统的解耦和备份;另一方面采用多板卡分布扩展的方式满足高阶自动驾驶对于算力和接口的要求。整体系统在同一自动驾驶操作系统的统一管理适配下,协同实现自动驾驶功能,通过变更硬件驱动、通讯服务等进行不同芯片的适配。随着自动驾驶等级提升,系统对于算力、接口等需求都会与日俱增。除了增加单个芯片的运算能力,还可以将硬件部件进行重复堆叠,实现对硬件部件的灵活调整和平滑的扩充,从而实现对整个系统的计算能力的提升,增加接口、完善功能。
异构分布硬件架构主要由三部分组成:AI单元、计算单元和控制单元。
AI单元:采用并行计算架构AI芯片,并使用多核CPU配置AI芯片和必要处理器。目前AI芯片主要用于多传感器数据高效融合与处理,输出用于执行层执行的关键信息。AI单元是异构架构中算力需求最大的一部分,需要突破成本功耗和性能的瓶颈以达到产业化要求。AI芯片可选用GPU、FPGA、ASIC(专用集成电路)等。
不同类型芯片对比
控制单元:主要基于传统车辆控制器(MCU)。控制单元加载ClassicAUTOSAR平台基础软件,MCU通过通信接口与ECU相连,实现车辆动力学横纵向控制,并满足功能安全ASIL-D等级要求。
特斯拉FSD芯片为例,FSD芯片采用CPU+GPU+ASIC架构。包含3个四核Cortex-A72集群,总共12个CPU,运行频率为2.2GHz;一个MaliG71MP12GPU运行频率为1GHz、2个神经处理单元(NPU)以及各种其他硬件加速器。三类传感器之间分工明确,Cortex-A72内核CPU用于通用计算处理、Mali内核GPU用于轻量级后处理,NPU用于神经网络计算。GPU算力达到600GFLOPS,NPU算力达到73.73Tops。
特斯拉FSD芯片架构
国内域控制器企业与芯片企业的合作关系
芯片企业产品与车企合作情况
三、数据与算法:数据有助于迭代算法,算法质量是自动驾驶企业的核心竞争力
用户数据对于改造自动驾驶系统极其重要。自动驾驶的过程中有一类发生概率不高的罕见场景,这类场景被叫做cornercase。若感知系统遇到了cornercase则会带来严重的安全隐患。例如前几年发生的特斯拉的Autopilot没有识别出正在横穿的白色大卡车,直接从侧面撞上去,导致车主死亡;2022年4月小鹏在开启自动驾驶的过程中撞上了侧翻在路中间的车辆。
此类问题的解决办法只有一个,便是由车企牵头收集真实数据,同时在自动驾驶计算平台上模拟出更多相似的环境,让系统学习以便下次更好地处理。一个典型的例子便是特斯拉的影子模式:通过与人类驾驶员行为进行比对,找出潜在的cornercases。而后对这些场景进行标注,并加入至训练集中。
相应的,车企需要建立数据处理流程,以便搜集上来的真实数据可以用于模型迭代,同时迭代后的模型可以实装到真实量产车上。同时为了大规模地让机器学习cornercase,在获取一个cornercase后还会针对这一cornercase遇到的问题进行大规模模拟,推导出更多的cornercases系统学习。英伟达应用元宇宙技术开发的模拟平台—NvidiaDriveSim就是模拟系统之一。数据领先的企业会构建数据护城河。
常见的数据处理流程为:
1)判断自动驾驶车辆是否遇到cornercase,并上传;
2)针对上传的数据进行标注;
3)使用模拟软件模拟并创建额外的训练数据;
4)用数据迭代更新神经网络模型;
5)通过OTA的方式将模型部署至真实车辆;
数据处理流程
数据闭环的背后依赖超大算力的数据中心,根据英伟达在2022CES上的发言,投资L2辅助驾驶系统的公司只需1-2000个GPU,而开发完整的L4自动驾驶系统公司需要25000个GPU来搭建数据中心。
1、目前特斯拉拥有3大计算中心总计11544个GPU:自动标记计算中心有1752个A100GPU,其他两个用来训练的计算中心分别有4032个、5760个A100GPU;在2021AIDAY发布的自研DOJO超级计算机系统有3000个D1芯片,算力高达1.1EFLOPS。
2、商汤科技在建的上海超算中心项目规划了20000+A100GPU,全部建成后算力峰值将达到3.65EFLPOS(BF16/CFP8)。