2020年6月,一辆特斯拉Model 3中国台湾省某高速公路发生事故时,车辆开通Autopilot功能,时速约110Km/h。当时司机没有注意到前面有卡车翻车,系统在撞击前2秒紧急刹车。
在此之前,特斯拉不同型号的车辆也多次撞到停在路边的车辆。事故发生后,车主反馈打开了Autopoilot辅助驾驶功能。
当时,系统没有报警或减速,车辆直接撞上,发现异常后紧急刹车,但根据车主提供的行车记录仪,撞击前加速值增加。
随后,小鹏汽车发布公告,关于车主使用的公告ACC LCC(自适应定速巡航&车道在中间保持功能)时,与前方停车的事故车辆发生碰撞,初步判断车主对车辆前方环境没有保持观察,及时接管车辆。
和特斯拉之前的处理方法一样,小鹏正式提醒司机,在使用辅助驾驶系统时,应保持对车辆周围环境的观察,并遵循用户手册中相关功能的使用指南,以确保驾驶安全。
事实上,类似道路翻车的情况并不少见。此外,特斯拉之前也发生过类似的事故。作为其他汽车公司,为什么不能训练类似的场景来提高辅助驾驶功能的识别能力呢?
定义智能驾驶边界
首先,让我们来看看小鹏的事故P7的配置。
目前,P7智能驾驶主要分为两套版本,次低配置XPILOT 2.5 该系统配备智能控制器(即行业中提到的)ADAS ECU,也有叫:辅助驾驶控制单元),传感器为3个毫米波雷达、12个超声波、4颗环视摄像头、1颗前向高清感知摄像头。
顶配P7,则为XPILOT 3.配备英伟达的0系统Xavier超级计算平台(通常称为智能驾驶域控制器),毫米波雷达增加到5个,12个超声波,4个环视摄像头和10个高清感知摄像头,以及亚米高精度定位系统。
从产品手册的功能来看,XPILOT 3.0和2.5 相比之下,增加了NGP智能导航辅助驾驶、SR环境模拟显示、停车场记忆停车和IHB智能远光灯,其他入门级L2功能基本相同。
根据官方手册的提示,XPILOT智能辅助驾驶系统无法处理所有的交通、天气和道路条件。如果智能辅助驾驶系统未能提供适当的转向辅助或保持适当的距离和速度,驾驶员必须始终注意当前的交通状况。
同时,驾驶员在使用功能前应意识到这些限制。在交通条件复杂多变、冰雪雨天气湿滑、道路积水或泥路、能见度差、崎岖山路或高速公路入口出口等情况下,请谨慎使用。
2020年,在小鹏P7发布后,当时是小鹏汽车自动驾驶产品总监的黄鑫(今年4月有传言称,黄鑫已加威来汽车,担任副总裁)在媒体交流会上做了很多解读。
传统意义上的辅助驾驶功能会在遇到道路驾驶障碍时启动系统退出,这是标准做法。但黄欣认为,这种做法对用户体验并不好。小鹏汽车将优化这种情况。
例如,当前车辆旁边有其他车辆从小角度变道,可以及时识别判断,从而改变驾驶速度,但不需要退出辅助驾驶。
同时,对于中国的一些常见路况,小鹏汽车的功能逻辑更强调对场景的深入判断。例如,系统识别后,无需退出系统,即可自动变道或在安全条件下缓慢避免。
鉴于事故中静止车辆的识别问题(Xpilot 1.4版有媒体指出BUG:2019年,小鹏汽车基本无法识别静止车辆)Xmart OS 1.5 升级版本时,可以识别这些静态车辆,系统会自动减速。
然而,在当天的新闻发布会上,
此外,
和小鹏一起去年9月P5.在中国第一批配备激光雷达的智能汽车上市时会有什么表现?黄欣表示,激光雷达有助于突破现有自动驾驶的一些边界,提高车辆安全性,更好地适应国内道路的复杂性。
不过,小鹏认为,通过汽车的智能化,汽车可以无限接近100%,最终只能达到97%,最后3%可以通过V2X要解决,但时间没有保证,小鹏汽车希望人类司机完成剩下的3%。
这3%可能是一个非常极端的场景。为了解决极端场景,成本需要增加300%或500%,这对大规模生产不划算。
这就是为什么小鹏汽车官员在此前多次公开强调,即使是NGP(XPILOT 3.0系统)仍然是辅助驾驶,而不是无人驾驶。小鹏汽车要求用户使用NGP注意前方路况,手持方向盘,随时准备手动接管。
显然,车企很清楚功能的边界。
去年,小鹏汽车率先在国内市场上线XPILOT智能驾驶分数系统(用户通过一系列安全测试获得智能驾驶分数。初始分数为100分,更新周期为12个月。),目的是提醒车主规范辅助驾驶功能的使用,了解辅助驾驶的安全边界,提高智能驾驶的安全意识。
游戏背后的功能
到目前为止,无论是摄像头、毫米波雷达、激光雷达还是其有优缺点。
考虑到场景的安全冗余和信心,近年来,大多数制造商选择更多的感知集成来实现智能驾驶计划。然而,集成也提高了复杂性。
同时,对于不同的路况和场景,当系统无法确认感知是否正常(如假阳性)时,还需要考虑许多其他因素。例如,突然减速可能会导致当前车辆的后追尾(例如,当前后传感器丢失或无法判断时)。
沃尔沃汽车Pilot Assist例如,当车辆前方可能是缓慢移动或静止的车辆和物体时,Pilot Assist当不确定目标物体是静止车辆还是其他物体时,系统将停止使用。
原因是传统毫米波雷达的探测性能(如分辨率)不稳定,导致与摄像头(无法实现真正的前融合)后出现错误,感知效果下降。
这些传统毫米波雷达以前主要是为了ACC功能开发的,雷达角分辨率较低,目标是为特定的功能而设计,但对于多感知融合系统来说,实际上性能无法满足要求(这也是为什么此前特斯拉对雷达进行了一定程度上的改进)。
这意味着大多数雷达无法识别和分类检测到的物体(包括静态物体),以确认物体的属性。例如,事实上,车辆后的雷达信号处理会屏蔽一定速度以下(包括静态物体)的信号,从而降低假阳性的可能性。
这一点也可以从之前博世的公开测试中验证。
2020年10月,博世商用车ADAS在公开测试活动中,公司演示了基于第五代前毫米波雷达的卡车(40km/h)对于前方静止车辆(道具)AEB,车辆从刹车开始,最后完全刹车,与前车保持一定的安全距离。
同时,通过增加摄像头,该系统可以与毫米波雷达合作,实现道路监控、车道维护、车道偏离警告等功能。可以看出,不同的功能逻辑将有不同的效果。
对于采用纯视觉方案的特斯拉来说,此前公开的数据显示,视觉AI该算法已达到探测目标的精度,且高于毫米波雷达。
事实上,一些激光雷达公司之前也透露,只有激光雷达才能实现AEB。比如,Luminar该公司认为,激光雷达可以提供比单目摄像头更准确的距离测量,而且可以实现比双目等三维视觉感知更远的探测距离。
目前,Luminar该公司正在与沃尔沃汽车的子公司合作,开发基于激光雷达的感知软件,用于行人检测和AEB为实现高速公路自动驾驶和冗余主动安全能力提供支持。
当然,这些传感器有许多不可避免的问题,比如摄像头不能完全克服恶劣天气的影响。
自动紧急制动系统非常有效,但必须有改进的空间。IIHS主动安全测试经理David Aylor表示,2015-2019年期间,全球已经有七次因AEB召回涉及约18万辆汽车,这一问题仍在增加。
比如2020年,因为AEB如果紧急制动系统出现问题,这些车型的系统在某些情况下可能无法正常工作,沃尔沃宣布全球召回736430辆车。
多条技术路线并行
一种方式是特斯拉的纯视觉,依靠大量的数据训练来提高深度学习的能力。但种模式需要时间来改进。
例如,在取下毫米波雷达后,特斯拉的纯视觉感知系统的幽灵制动问题急剧增加。美国国家公路交通安全管理局(NHTSA)根据披露数据,车主的投诉在三个月内上升到107起,而过去两年只有34起。
一些专业人士指出,这与工程师在感知系统发生变化后设定的判断阈值有关。多感知集成系统由于各种传感器的交叉验证,幽灵制动相对较少。
在此之前,特斯拉刚刚获得了美国高速公路安全保险协会的纯视觉系统车型(IIHS)最高安全评级。差异实际上与AEB测试条件与场景不完善有关。>
比如,美国IIHS只在两个速度下12mph(20km/h)和25mph(40km/h)对AEB系统进行评价,中国的C-NCAP也只是在30km/h、50km/h两个速度下(相当于匀速情况下)对车辆进行AEB测试。
而更加严格的Euro NCAP则覆盖了10-80km/h的范围,而且还模拟了前车的各种状态(静止、缓慢行驶、短距离/长距离急停)。
第二种方式,则是采用更多的新一代传感器来提升视觉的感知冗余,比如,4D成像雷达通过增加角分辨率、更多的点云,来实现与视觉的真正前融合。
不过,这条赛道目前还无法明确实际的效果。随着搭载4D成像雷达新车陆续上市,后续还需要完善雷达算法、融合算法以及面对实际路况的检验。
另外,还有双目立体视觉技术。
去年,搭载全新一代立体视觉方案的斯巴鲁Levorg(力狮)在日本NCAP (JNCAP)中拿到了最佳成绩,超过了10辆获得五星评级的竞争车型,以最高分获得最佳五星奖。
这是又一次对于立体视觉感知系统的量产证明,尤其是面对目前单目视觉能力还有所欠缺的场景能力,比如,晚上光线较暗情况下对车辆和行人的自动紧急制动(AEB)。
同时,和激光雷达相比,通过立体视觉生成的数据更丰富,这反过来使障碍物检测更容易。在弱光情况下,立体视觉分辨率也更高。
第三种方式,则是Mobileye提出的并行冗余策略。
在Mobileye看来,基于摄像头的纯视觉感知与雷达+激光雷达融合感知两套方案应该并行,才是真正的冗余。
该公司认为,摄像头是自动驾驶的主干,而雷达+激光雷达子系统则增加了安全冗余,并显著提高平均故障间隔时间(MTBF,也就是系统的可靠性指标)。
原因是,摄像头是属于被动感知,毫米波雷达和激光雷达则是通过主动发射信号来探测感知物体,这是完全不同的两大类传感技术。
之所以不采取摄像头与雷达或者激光雷达的融合策略,是因为这两种感知技术并没有在性能成熟度上达到接近的水平,甚至有可能牵制了视觉技术的性能发挥。