还原特斯拉致命事故现场,美国交通局是如何「断案」的?

还原特斯拉致命事故现场,美国交通局是如何「断案」的?

未来我们在讨论自动驾驶的安全性时,Joshua D. Brown 这个名字将被一再提起。

2016 年 5 月 7 日,Joshua 驾驶一辆特斯拉 Model S 在佛罗里达的一个交叉路口与一辆拖挂车发生了剧烈碰撞,导致其不幸丧生。由于碰撞发生时这辆特斯拉轿车处于自动驾驶模式下,而驾驶员也没有做出任何规避动作,着实为火热的「自动驾驶」概念蒙上了一层阴影。

Deadly-Tesla-Autopilot-Accident-Brown.jpg

随后美国国家公路交通安全管理局(NHTSA)介入了这场事故的调查,在经过历时 7 个月的漫长调查之后,今年 1 月 NHTSA 公布了对特斯拉自动辅助驾驶系统(Autopilot)的调查结果未检测到特斯拉自动紧急制动系统与自动辅助驾驶系统中存在任何设计与表现的缺陷。与此同时,NHTSA 还表示:「没有必要对该问题进行进一步审查。

不得不说,这样的调查结果等于为特斯拉颁了一块「免死令牌」,也让其他有志于发展自动驾驶技术的汽车厂商长舒了一口气。但面对即将到来的「自动驾驶时代」,如何在事故发生后界定人或汽车的责任,如何评判自动驾驶汽车的安全性,仍然是非常棘手的问题。

在目前评判体系不完善的大环境下,这次 NHTSA 公布的调查报告就成为了一个珍贵的研究案列。

「交叉路口」是问题关键所在

当我们评判「传统汽车」的安全性时,可以从 E-NCAP、IIHS 等碰撞测试入手,但对于配备高度自动驾驶技术的「现代汽车」来说,这样的「被动测试」是远远不够的。汽车能否通过算法提前预防车祸的发生,人与汽车如何顺利地完成方向盘的「交接」,都是更加需要关注的安全因素。

在此次调查中,NHTSA 重点关注了特斯拉的以下几个部分:自动紧急制动系统(AEB)的设计和表现;Autopilot 工作时的人机交互界面;Autopilot 和 AEB 在碰撞时收集到的数据;Autopilot 和 AEB 是否进行了后续更新。

为什么自动驾驶没有检测出前方的拖挂车,是去年 5 月那场事故最具争议的地方。此前特斯拉在《不幸的悲剧》声明中阐述拖挂车的高度和白色的车身干扰了驾驶员和汽车的判断,所以径直发生了碰撞。

而这次 NHTSA 在调查中直接把目光聚焦到了和刹车关系最为紧密的 AEB 系统。

screen-shot-2016-06-30-at-4-58-21-pm.png

通常情况下 AEB 系统包括前方碰撞警告(FCW),动态制动器支持(DBS)和碰撞逼近制动(CIB)等部分,从 FCW 到 CIB 是一个从「警告」到「强制制动」的过程。特斯拉的 AEB 系统由相机(Mobileye EyeQ3)和雷达提供监测数据,而它的开关状态和自动驾驶并没有关系。

为了测试特斯拉 AEB 系统的表现,NHTSA 找来了一辆 2015 款的梅赛德斯 C300 4Matic 作为比对车辆。为了更加贴合现实中的情况,NHTSA 选择在 3 种环境和 3 中驾驶模式下进行测试。3 中环境是前车停止(LVS)、前车前进(LVM)和前车减速(LVD);3 种模式:手动驾驶、自适应巡航控制系统(ACC),以及同时开启 ACC 和车道居中控制系统(LCC)。

经过一系列列测试后 NHTSA 表示,特斯拉 AEB 系统处于 2016 年的行业顶尖水平,可以有效避免碰撞事故的发生。但因为该系统被设计为预防追尾事故,而在佛罗里达事故发生在交叉路口,已经超出了 AEB 的预期能力,所以没有避免事故的发生。

3104f777e3138244c40bd5be11a5f892.png

事故发生路段

具体来说,追尾事故往往发生在纵向上,AEB 有足够的因素和时间进行防撞预判。而交叉路口突然出现的横向车辆则不满足这些需求。为此 NHTSA 特意走访了十几个汽车厂商和零部件供应商,得到了一个令人惋惜的结果:虽然这几年 AEB 的性能在不断提升,但没有一家厂商表示它能在交叉路口有效完成工作。

tesla-truck-accident.png

事故示意图

「假使当时车辆发生的是正面撞击或追尾事故,即便在高速行驶条件下,Model S 先进的防撞系统都极有可能避免人员伤亡的发生,因为在此前的很多起事故中,Model S 都有过如此表现。」特斯拉官方曾在事故发生后表示。

事实上,AEB 系统并不是什么新兴的产物,它已经在汽车上应用了 10 多年。这次 NHTSA 从 AEB 入手也是想把特斯拉还原成一辆「普通汽车」去研究。可以预见的是,未来在判断因自动驾驶引发的事故时,汽车的「基础安全配备」仍然最为基础的判定因素。

「人为因素」是根本祸因

在确定事故发生前进行自动刹车已经超出了特斯拉的能力范围,NHTSA 才把目光转回了自动驾驶本身。

在事故报告中,NHTSA 明确表示特斯拉的 Autopilot 系统属于 ADAS 的一种,即驾驶辅助系统。现在在特斯拉的中文官网,也能看到特斯拉将 Autopilot 翻译成为了「自动辅助驾驶」。 Autopilot 的核心是交通感知巡航控制(TACC)和自动转向控制(Autosteer),它们依赖于超声波雷达、前向雷达和相机控制汽完成加减速、转向等操作。

image.jpeg

按照目前 NHTSA 对于自动驾驶技术的分级,当 TACC 工作时特斯拉属于  Level 1 级别,当 TACC 和 Autosteer 同时工作时属于 Level 2 级别。通过下表可以看到,Level 1 和 Level 2 仍然需要驾驶员监视周围环境,而且需要做好接管准备。特斯拉的 Autopilot 系统在使用时有很大的局限性,并不能称之为「完全自动驾驶」系统。

image (1).jpeg

按照 NHTSA 公布的数据,当单独开启自适应巡航控制系统(ACC),或同时开启 ACC 和车道居中控制系统(LCC)时,大多数驾驶员的注意力分散状态持续时间都在 3 秒或以下,而像佛罗里达州事故中驾驶员注意力分散的时间已经超过 7 秒,是非常罕见的。

image (4).jpeg

现在无法确定 Joshua 在事故发生前究竟是有意还是无意「走神」,但长时间交出了汽车的控制权,确实直接导致了这场车祸的发生。

此前极客公园在《一个自动驾驶车主的意外死亡》一文中曾经介绍过,Joshua D. Brown 曾是海豹突击队的一员,在从服役了 11 年的部队退伍之后进入了科技行业工作。Joshua D. Brown 是自动驾驶的狂热崇拜者,在事故发生前的一个月,马斯克还转发了他拍摄的相关驾驶视频。

或许有很多人会责怪特斯拉在宣传是刻意将 Autopilot 系统和「炫酷」的自动驾驶概念联系在了一起,「误导」一些车主大胆尝试。但在特斯拉的使用手册中,确实严格规范了 Autopilot 的使用场景,而汽车的人机交互层面也对「双手撒把」等危险动作做出了警告。事实上,这也是特斯拉能够从这场事故中「脱罪」的主要原因。

image (6).jpegNHTSA 在调查后认为特斯拉在其车辆的人机交互界面上对驾驶员进行了多层次的安全警告与提示,并在对系统本身的限制进行提示,驾驶员行为的检测,以及降低模式混淆等方面都采取了相应的措施,符合 Level 2 级别对于辅助自动驾驶技术的要求。

也就是现阶段驾驶员仍然需要对自己的所作所为负责。而当汽车还没有「智能」到自己判定形式的道路环境,自由选择最合适的驾驶模式前提下,「人为因素」依然是事故定则中不可忽略的部分。

值得一提是,在佛罗里达事故发生两个半月的之后,Tesla 对其 Autopilot 自动辅助驾驶系统进行了升级。这次更新特斯拉提升了雷达的优先级,并且驾驶员在一个小时内三次忽略「撒手」警告,那这辆车的自动驾驶模式将会被锁住(即「出局」策略)。

如果那场事故发生之前 Joshua 驾驶的特斯拉已经获得了这样的功能,或许这场事故就能够避免了。不过对于 NHTSA 来说,特斯拉后续通过 OTA 升级在方向盘「控制权」上进行收紧,只会成为事故调查中的一个「加分项」。

谨慎地迈开下一步

NHTSA 的报告公布后,有一种观点是美国政府有意在偏袒自动驾驶技术,为了给它的发展扫清障碍。但可以看到 NHTSA 的调查是基于汽车工业的现状而展开,并不是以理想中自动驾驶技术的表现为基准,大众的愿景和残酷现实的交错是技术发展中必然会经历的过程。

在目前阶段,只要合理地使用辅助驾驶系统,依然是可以大大降低事故发生的概率。NHTSA 通过分析特斯拉提供的所有配备 Autopilot 套件的 2014 到 2016 年份 Model S 和 2016 款 Model X 的行驶里程以及安全气囊设备启动数据,计算出安装自动辅助驾驶套件之前和之后的碰撞事故率。数据显示,安装特斯拉自动辅助驾驶套件后,特斯拉车辆的碰撞事故率降低近 40%。

image (5).jpeg

根据特斯拉公布的信息,这是自动驾驶行驶超过 1.3 亿英里(合 2.08 亿公里)以来发生的第一起已知的导致死亡的车祸。在美国,机动车平均每行驶 9400 万英里(合 1.5 亿公里)发生一起导致死亡的车祸。而在全球范围,机动车平均每行驶 6000 万英里(合 9600 万公里)发生一起导致死亡的车祸。

此前包括 Google 和 Tesla 在内的多个汽车厂商都拒绝建立通用的安全评判标准,他们的自动驾驶测试数据也都是不透明的。但在致命事故发生后,相信会引起立法机构足够的重视。虽然此前 NHTSA 已经计划将 AEB 加入到 NCAP 碰撞测试中,成为标准程序的一环,但这显然是不够的。

佛罗里达的事故就此告一段落,或许法律上那场事故不是特斯拉的错,但很显然它有能力做得更好。相信 Joshua 的离开会督促特斯拉在自动驾驶的路上,更加小心谨慎地迈开下一步。

(头图来自 electrek)

自动驾驶特斯拉
关注极客公园公众号
反馈