业内人士表示,目前,全球汽车制造商对哪种传感器组合真正适合高级智能驾驶的大规模生产仍存在争议。这涉及到技术能力储备成本问题和终端消费者的营销宣传。
特斯拉倾向于使用阵营一方面,单一感知可以减少不必要的干扰,降低决策难度。Mobileye也是阵营的站队者之一,比如全新Mobileye SuperVision?该系统还基于纯摄像头感知,实现智能驾驶。
然而,一些汽车制造商强调了纯视觉感知系统的潜在挑战,包括相机可能无法在恶劣天气下正常工作。同时,4D成像毫米波雷达技术增强了传统毫米波雷达的目标检测功能(如提高角分辨率,输出类似激光雷达的点云),可全天候工作。
激光雷达激光雷达吗?例如,用于补盲的低线束激光雷达。例如,传统毫米波雷达芯片方案制造商NXP已推出适用于4D雷达处理芯片的成像(S32R45和S32R41系列),满足192个虚拟通道的实施。
其中,S32R今年将开始45量产,S32R41将于2023年亮相。NXP由于成本和复杂性的限制,激光雷达的应用范围似乎仅限于少量的应用场景。然而,从商业逻辑的角度来看,NXP当然,我希望每个人都能用自己的4D方案(大陆集团之前采用的赛灵思FPGA方案,成本高)。
不过,也是必不可少的。
最近,刚刚和Luminar签署合作协议的日产表示,激光雷达的技术优势可以弥补相机视觉信息的不足,并提供更准确的位置和形状信息。然而,该公司也承认,面对高速公路场景,市场上的激光雷达感知距离也需要提高性能。例如,测量距离应达到300米,分辨率应进一步提高。
到目前为止,世界主要汽车制造商已经选择了第一款激光雷达定点方案,涉及法雷奥,Luminar、和赛科技、速腾聚创、一径科技等供应商。但最终落地并不难,涉及到大量的数据采集、系统校准等工程能力。
4D大规模生产即将成像雷达
优点是系统成本相对较低,可以满足L2 以下普及市场。难度在于整合,如何有效发挥4D雷达的成像能力,而不是给视觉感知带来新的噪音。
4D雷达方案的大部分技术原理是通过增加信号通道阵列(芯片极联或定制芯片组)或软件算法来检测对象的相对速度、距离和方向角,以及对象的高度。
去年,AI商安霸收购了4个视觉芯片方案D成像雷达初创公司傲酷(Oculii),在传统雷达芯片的基础上,后者的自适应软件算法具有较高的分辨率、较长的距离和较高的探测精度。
接下来,傲酷4D雷达软件可以直接部署在安霸CVflow?SoC上,甚至可以提升传统雷达的分辨率和探测精度,从而提供全天候、低成本和可扩展的融合感知解决方案。
我们希望傲酷独特的自适应雷达感知算法,结合安霸的视觉和人工智能处理能力,解锁更高水平的感知精度,而不是传统的视觉和雷达后集成解决方案。到目前为止,傲酷已经与10多名客户签订了软件授权协议,并获得了大规模生产的商业开发合同。
4D成像雷达产生类似激光雷达的点云。同时,优点是不仅知道X和,而且知道每一点Y,距离和速度值也可以直接获得。同时,随着时间的推移,这些数据也可以跟踪。(例如,大陆集团ARS540,12发16收,相当于8线激光雷达)
同时,AI技术(通过深度学习训练)的祝福也从视觉延伸到4D雷达。通过优化点云,消除返回噪声,包括从物体轮廓中识别目标和分类。
安波福相关负责人表示:雷达提供的数据比视觉系统提供的数据要复杂得多;然而,前者除了提供目标位置外,还提供距离和速度等信息,这是相当有价值的。,该公司也在推动4D成像雷达。
这样的产品正是市场所需要的。全新一代奔驰S级DRIVE PILOT系统中,就搭载了Veoneer大陆集团的双目立体视觉和双目立体视觉ARS540成像雷达。
对于L2 /L3功能,如高速公路自动驾驶和车道改变辅助,用于前向4D成像雷达可以提供更高的角分辨率数据和高程感知能力,提高角雷达的近距离精确探测能力和高级自动停车的感知识别能力。
例如,如何明确定义和设置两种传感器所需的最低性能标准,包括分辨率、误检率、测距范围、延迟和灵敏度。然后,集成高级聚类、对象边界、高级自由空间映射算法和跟踪算法的能力——所有这些都是基于成像雷达的集成感知解决方案需要解决的问题。
随着点云数据的增加,噪声也会增加。例如,隧道对传统雷达来说是一个具有挑战性的环境。隧道墙是一个巨大的反射面,可能导致许多返回点,甚至超过雷达处理目标。
这意味着,4D雷达需要克服同样的问题,如何以更高的精度过滤检测中的噪声。同时,在隧道和其他封闭环境中更好地理解雷达回波,并对扇形等目标进行分类。
此外,随着智能驾驶功能水平的不断提高,脱手脱眼正成为感知组合的关键门槛。这对传感器的鲁棒性、冗余性、精度和准确性提出了更高的要求。
提高雷达的分辨率只是第一步,但目前还没有强大的软件可以打开。这是一家预测感知软件技术方案公司BlueSpace.ai判断的原因是过去的感知模式主要集中在物体的识别和分类上。
从第一原则出发,我们真正关心的是安全规划的答案:物体的运动以及它们会做什么(运动轨迹预测)。
4D成像雷达 激光雷达
这也是BlueSpace.ai明确的方向是充分发挥4D传感器的作用可以弥补传统深度学习方法无法实现的动态精度感知。为什么要做出这样的选择?
一方面,可以实现纯视觉感知系统Vidar(基于多个摄像头)估计物体之间的距离,并建立3D模型。与此同时,比其他传感器具有更好的目标分类优势,但在恶劣天气或光线不足的情况下可能会遇到困难。
这意味着摄像头于一个完整的安全冗余系统来说远远不够。
另一方面,与被动传感器不同,毫米波雷达和激光雷达通过主动发射信号(无线电波或红外线)并测量其返回信号来实现感知。相对而言,被动传感器较主动传感器具有抗干扰能力强的特点。
例如,根据常识,相机与激光雷达的前融合可以提供最佳的3D对象检测,但事实证明,两种不同的模式转换和集成使特征的精确对齐具有挑战性。摄像头和4也出现了同样的问题D雷达的集成。原因是通常的处理方法是,来自两种模式的数据使用不同的增强策略。
特别是后者,由于调频连续波(FMCW)传统的飞行时间(ToF)不同的是,除了测距范围、仰角和方外,FMCW它还增加了直接获取速度。这意味着它可以与毫米波雷达同时快速识别小而快速的目标。
此外,考虑到毫米波雷达的全天候能力,这意味着激光雷达也必须满足这一条件。FMCW技术的优点之一是抗恶劣天气条件和其他传感器干扰,实现更高的检测和有效的动态范围。
最后,是整个传感器组合的成本。
按照Mobileye给出的计划,L4级系统是基于360度的摄像头和4级系统D成像雷达只需要高分辨率的前置FMCW激光雷达可以实现纯视觉感知,4D成像雷达 两套平行冗余感知组合的激光雷达。
与一些制造商采用的三种传感器集成方案相比,理论上应该创建一个更可靠的模型。然而,该系统更复杂,更难验证。Mobileye以4为基础的方案D成像雷达 激光雷达提供独立的环境模型(与RSS最终的路径规划和控制仍然取决于视觉系统。
原因是决策的有效性取决于更容易验证的感知系统(特斯拉之前决定删除传统的毫米波雷达,因为它不能与视觉感知系统形成有效的决策机制),数据量越小越好。