特斯拉自动驾驶,究竟在杀人还是救人?

来源:电动星球

当地时间 7 月 30 日凌晨,一辆 Model S 疾驰在挪威滑雪小镇的一条公路上。

从车外看,车子的行驶轨迹并无任何异样,但让旁车目击者吓了一跳的是,Model S 车内的驾驶员竟在「呼呼大睡」,整个人的脑袋偏向一侧,像是失去了意识

在跟随了一段时间后,目击者发现 Model S 最后自动紧急停车,并开启了双闪。紧接着目击者下车拍打窗户发现特斯拉驾驶员已经失去了意识,随后他们拨打了救援。

事后据当地交警透露,当时车辆的AutoPilot 处于激活状态,驾驶员涉嫌「醉酒驾驶」,目前驾照已被暂时吊销,他可能也将面对刑事诉讼。

很显然,在该起事件中特斯拉 AP 救了当事驾驶员一条命,但同时再次反映了特斯拉驾驶员滥用 AP 的现象。

网友关于此事的评论也是两极分化,自动驾驶拥趸们高呼 AP 牛逼,还有一部分人对驾驶辅助依然持怀疑态度,嘲讽特斯拉驾驶辅助「杀人」比「救人」多。

这就又回到了老生常谈的问题,我们究竟应该怎么看待现阶段的驾驶辅助?AP 或者 FSD 这类的驾驶辅助功能究竟靠不靠谱?

「杀人」or「救人」谁更多?

七月初的世界人工智能大会上,华为苏菁直言不讳,曾痛诉特斯拉的高事故率简直就是「杀人」:

「特斯拉这几年下来,它的事故率还是挺高的,而且是从杀第一个人到最近杀的人,它的事故类型非常像。」

「机器进入人类社会和人类共生的时候机器是一定会造成事故率的,讲难听点就是‘杀人’,只是说我们要把它的事故概率降到尽量低。从概率上来说,这就是一件有可能发生的事。」

苏菁虽然言辞激烈,但他的话不无道理。

现阶段自动驾驶依然有着不小的事故率。以特斯拉为例,从 2016 年的加州致死事故开始,全球范围内与自动驾驶相关的大小事故,几乎每一桩每一件都登上了主流媒体的头版头条。

血腥的往事不再一一回顾,必须承认的是,特斯拉 Autopilot,乃至于所有辅助驾驶系统,并不 100% 可靠,发生事故只是概率问题。

自动驾驶的初衷,是把人类从开车这项辛苦的劳动中解脱出来,更深远的意义是零事故、零伤亡,用机器构建一个充满秩序的交通环境。

从零事故、零伤亡这个角度来说,当下的自动驾驶显然还差得很远,哪怕有 0.000000....1% 的致死率,也是无法容忍的。

当下这个技术现状,我们短时间内无法改变。抛开人身伤亡这样的感性前提,我们就理性地从概率问题,也就是统计学的角度去分析这个问题。

根据特斯拉最新的安全报告和 NHTSA (美国公路交通安全管理局)的数据显示:

2021 年 Q1:使用 AP 每行驶 419 万英里发生一起事故;

2020 年 Q4:使用 AP 每行驶 345 万英里发生一起事故;

2020 年 Q3:使用 AP 每行驶 459 万英里发生一起事故;

2020 年 Q2:使用 AP 每行驶 453 万英里发生一起事故;

2020 年 Q1:使用 AP 每行驶 468 万英里发生一起事故;

这是什么概念,据 NHTSA(美国公路交通安全管理局)的数据显示,2020 年,在美国,每 47.9 万英里就有一次车祸。而如上特斯拉每四百多万英里才发生一起事故,其事故率远远低于美国的平均值。

从这个角度上来说,特斯拉的驾驶辅助「救人」要比「杀人」多

可是为什么我们看到特斯拉总是在「杀人」呢?因为我们掌握的样本太少,加上媒体的聚光灯不断照向特斯拉,我们非常容易认为这些个例就具备绝对的普遍性。

看多了特斯拉的「杀人」事件,我们不妨看看这些「救人」的镜头:

自动驾驶的「二八定律」

那为什么很多人指责特斯拉「杀人」呢?

究其原因还是因为目前的自动驾驶技术还存在一些无法处理的 corner case,这部分场景占比非常小,但对自动驾驶来说却相当致命。

你可以理解当下的自动驾驶存在一个「二八定律」,80% 是常规场景,剩余的 20% 是所谓极端场景。这 80% 的场景并不难处理,但要想处理这 20% 的极端情况却需要花费 80% 的精力,甚至更多。

在无法完全解决掉这 20% 之前,自动驾驶永远有发生事故的概率。

当然,这并不意味着自动驾驶一旦发生事故就可以甩锅 corner case。

说实在的,当下的量产技术对于 80% 的常规场景也并不是百分百的完美应对。这部分的安全性,车企没有理由去推脱责任,挨打就要站直。

我们曾经多次批评过特斯拉 AP 和 FSD ,但这并不妨碍我们认为特斯拉的自动驾驶提高了整体的行车安全性,因为批评之处往往是有针对性的,是针对某些场景下特斯拉的不足,而并不是对特斯拉整体能力的全盘否定。

毕竟绝大部分用户在使用自动驾驶时,更多要面对的是常规场景,极端场景仍是少数。

虽然发生事故是小概率事件,但这并不意味我们就可以做「甩手掌柜」,一旦面对突发情况,自身安全还是要牢牢掌握在自己手里,而非机器。

拒绝滥用自动驾驶

其实苏箐吐槽特斯拉「杀人」后面还有一句话:

「如果我们的自动驾驶变得更高级,普通用户对于新科技产品会有一个倾向性,一开始他们会完全不信任,一旦试过觉得很好后就会非常非常信任,这其实就是出事故的开始。」

现阶段自动驾驶事故发生的本质原因,还是人类过于相信机器。

当下的 L2 级自动驾驶,依然是人机共驾的阶段。但很多人往往过分相信机器的能力而忘乎所以,以至于紧急情况下不能够及时接管车辆,从而酿成惨剧。这就是对自动驾驶的一种滥用。

为了欺骗特斯拉方向盘的扭力传感器,某宝上甚至推出了各种「AP 神器」,居然销量还不错。

今年 5 月份,加州甚至有男子坐在 Model 3 后排「用脚」开车,公然在街道上嘚瑟车子的自动驾驶能力.......

国内同样有类似车主滥用辅助驾驶的情况。就在今天下午,各大车主群里面疯传两则理想 ONE 相关小视频。

可以看到,第一个片段主驾直接就没有坐人,第二个片段是车主把主副座椅放平,躺到了后排。两种情况下,车辆依然在路上行驶。

理想汽车傍晚时分也做出了回复:

魔高一尺,也就需要道高一丈。

为了防止驾驶者对自动驾驶随意滥用,车厂必须增强技术手段对驾驶者进行监管。虽然人机共驾的时代,自动驾驶相关事故问责的主体还是人类驾驶员,但对司机进行有效的监督,这是当下主机厂所必须坚守的伦理底线

于是乎各种 DMS 驾驶员监测系统成了智能汽车的标准配置,特斯拉从 FSD V9 版本开始也终于激活了那枚尘封许久的车内摄像头,但并不排除是否会有人因为种种原因比如隐私问题去把摄像头堵住。

因此,在车厂努力监督司机的同时,更重要的还是人类的自觉

我们不应该鲁莽地把网络游戏论作是「精神鸦片」,更不应该把发展中的自动驾驶技术过分想象成「杀人凶手」。技术是无辜的,关键在于人类在使用程度上的拿捏。

实践证明,合理谨慎地在一般场景下使用自动驾驶功能可以极大地缓解驾驶压力,降低事故发生的概率。当然,这必须是以车厂的技术足够成熟为前提。

声明:本文由太平洋号作者撰写,观点仅代表个人,不代表太平洋汽车网。文中部分图片来源网络,感谢原作者。
TA的精彩文章
我来说两句