前Uber自动驾驶负责人:我开着特斯拉FSD撞车了,孩子就在后座

IT之家 3 月 18 日消息,Mozilla 首席技术官、前 Uber 自动驾驶汽车部门负责人拉菲 · 克里科里安(Raffi Krikorian)3 月 17 日在《大西洋月刊》发表长文,描述了他驾驶特斯拉 Model X(FSD 模式)时所发生的一起严重车祸,并从专业角度剖析了特斯拉 FSD 的核心问题

克里科里安曾执掌 Uber 自动驾驶团队,负责训练安全驾驶员如何在系统失效时及时且正确干预。在他领导该部门的两年间,Uber 的早期试点项目保持着零受伤的记录

此次事故发生在一次寻常的周日出行。克里科里安驾车儿子参加童子军活动,行驶在湾区住宅区街道上,而这条路他已经走过数百次。当时,特斯拉处于 FSD 模式系统一直平稳驾驶,直至意外发生。

当 Model X 驶入一个弯道时,FSD 似乎突然迷失方向方向盘毫无预兆地剧烈抖动,车辆开始减速。克里科里安立即抓住方向盘,但已来不及挽回。车辆随即撞上混凝土墙,当场报废。克里科里安遭受脑震荡、颈部僵硬,头痛持续数日,所幸后座孩子安然无恙

尽管拥有顶尖专业背景,FSD 还是“坑”了他。克里科里安写道,他最初只在高速公路上使用 FSD,因为车道线清晰、交通模式可预测。熟悉后又开始在普通道路上使用,发现效果不错,渐渐成为习惯。

此次事故发生前,他的手一直放在方向盘上,按照特斯拉的要求保持警惕。他指出,FSD 实际上“训练”了他去信任它。事故发生后,出现在保险报告上的名字是他,而非特斯拉。在现行法律框架下,这是也是所有 FSD 事故的共同点:特斯拉 FSD 系统被归类为 Level 2,驾驶员始终需承担全部责任

克里科里安还提出一个关于特斯拉数据处理方式的尖锐问题。车辆持续记录驾驶员的手部位置、反应时间视线轨迹,特斯拉在事故后常利用这些数据责任指向驾驶员。而要求获取自身数据的驾驶员往往只能收到碎片信息。在佛罗里达州一起里程碑式的过失致死案中,原告方被迫雇佣第三方黑客从事故车芯片中恢复出了关键证据,而特斯拉声称数据无法找到。

克里科里安还对“监督式”自动驾驶根本缺陷进行了分析。他的核心论点是:特斯拉要求人类监督一个专门设计得让监督显得毫无意义的系统。正如他所言,一台不可靠的机器会让人保持警惕,一台完美的机器不需要监督,但一台近乎完美的机器却会因此而制造陷阱 —— 让驾驶员信任它到足以忽视监督的程度。这也是目前几乎所有 Level 2 辅助驾驶车辆事故中的共性 —— 在事故真正发生到自己头上之前坚持认为辅助驾驶功能完美可靠,甚至开车睡觉。

心理学家将这一观点称之为“警觉性衰减”:长期监督一个近乎完美的系统令人厌倦,而厌倦导致走神 / 不重视。在辅助驾驶系统退出后,驾驶员往往需要 5~8 秒才能重新集中精神,紧急情况下根本来不及反应并接管。

克里科里安援引美国公路安全保险协会的研究:使用自适应巡航控制仅一个月后,驾驶员看手机可能性增加六倍以上。特斯拉虽然警告 FSD 用户不要自满(自以为是),但 99% 场景下的流畅表现反而会引发这种自满情绪。

他还引用了两起广为人知的事故来说明这种“不可靠”。2018 年山景城事故中,苹果工程师沃尔特 · 黄驾驶的特斯拉在冲向混凝土隔离带前有 6 秒预警,但他从未触碰方向盘。同年亚利桑那州坦佩的 Uber 事故中,传感器在 5.6 秒前检测到行人,但安全驾驶员在最后不到 1 秒才抬头。

在这起事故中,克里科里安自己确实采取了行动,但他需要在最后一秒的时间内克服长期训练出的信任惯性、从乘客状态瞬间切换回驾驶员状态,可以说几乎不可能完成。事故车日志证实他打了方向盘,但仍无法在事故前的 1 秒中完成逆转。

根据克里科里安的描述:特斯拉先让驾驶员对 FSD 产生好感,再用数月流畅表现削弱其警惕性,导致驾驶员对这种“实际上并非 100% 可靠的辅助驾驶功能”产生心理依赖,最后在出问题时搬出服务条款将责任归咎于驾驶员 ——FSD 没出问题时特斯拉获得赞誉,出问题时驾驶员全责。

克里科里安还特意拿比亚迪举例。2025 年 7 月,比亚迪宣布将为其自动泊车功能导致的事故兜底 —— 无需保险理赔,不影响驾驶员记录。尽管案例有限,但这表明车企与驾驶员分担责任是一种选择,并非不可能。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平