特斯拉回应最新致命车祸调查:车主使用不当# Automobile - 车轮上的传奇
s*u
1 楼
文章来源: 华尔街见闻
因为一旦车毁人亡,特斯拉会更倾向于认为:车主没有正确使用AutoPilot.
这就是在最新一起特斯拉致命车祸调查后,特斯拉官方给出的回应。
《连线》报道,美国国家交通安全委员会(交委会)周四公布调查结果称,2018年3月1
日发生在佛罗里达州德尔雷海滩的Model 3致命事故中,特斯拉电动车的自动驾驶系统
(Autopilot)处于启动的状态。
这是美国发生的第三起与特斯拉自动驾驶系统有关的致命事故。
交委会的初步报告说,这名司机在撞上一辆半挂车前大约10秒启动了自动驾驶系统,在
事故发生前不到8秒,系统并没有检测到司机的手放在方向盘上。
然后这辆电动车和半挂卡车撞击,车顶被刮了下来,车毁人亡。
该机构说,这辆车在一条限速每小时55英里(89公里)的公路上以每小时68英里(109公里
)的速度行驶,自动驾驶系统和司机都没有进行任何规避危险的动作。
特斯拉公司在一份声明中说,在司机启动自动驾驶系统后,他“立即将手从方向盘上移
开。那是整个驾驶过程中车主唯一一次使用AutoPilot。”
特斯拉还补充说:特斯拉所有的司机在使用自动驾驶系统的情况下行驶了超过10亿英里
,我们的数据显示,如果一位细心的司机使用得当,如果他随时准备控制局面,那么由
自动驾驶系统支持的司机比那些没有帮助的司机更安全。
什么叫使用得当呢?
就是使用AutoPilot的时候,车主要保持高度专注。
但《连线》杂志也发问特斯拉了:为啥一辆大卡车横在前面,AutoPilot的系统“看不
见”?
在特斯拉的AutoPilot和“全自动驾驶”方案中,一直宣称使用视觉为主的方案就足够
安全。
但事实证明,并非如此。
实际上,这Model 3的事故调查结果,跟之前其他特斯拉致命车祸并无明显不同。
2018年3月,在美国加州山景城发生的一起致命事故中,特斯拉表示,车辆日志显示,
司机收到了将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。事故发
生时,这辆Model X车处于自动驾驶模式。
2016年5月,一名特斯拉Model S司机在佛罗里达州威利斯顿附近被撞死,当时他启动了
自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。
更早之前,被称为特斯拉首例死亡车祸的事故中,也是AutoPilot状态下的特斯拉,没
有识别白色外观的大卡车,于是不减速撞击, 车毁人亡。
但即便如此,马斯克仍然觉得,视觉方案已经足够安全,用激光雷达的自动驾驶方案都
是大傻X.
而且AutoPilot本身,就存在一直被热议的高级辅助驾驶悖论。
自动驾驶分级中,共分5级,级别越高,人类参与驾驶的程度就越低。
特斯拉的AutoPilot,虽然特斯长期以“自动驾驶”对外宣传,但业界始终认为处于L2-
L3之间,属于高级辅助驾驶。
这种高级辅助驾驶可以帮助人类提升驾驶体验,但依然需要人类在驾驶中处于主导地位。
矛盾之处也正是如此。
一方面,AutoPilot可以代人在一些场景下驾驶,但另一方面又要求司机在紧急情况下
接管汽车。
这就要求一个长时间放松的人,必须还要时刻专注在车程中。
换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。
很多特斯拉车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度
信任特斯拉视觉感知系统的能力。
于是当“老师点名提问”来临,他们往往措手不及。
当然,特斯拉也并非完全没有针对性方案。
比如监测到司机双手没有握着方向盘,就会提醒,但后来也出现很多攻略,比如一个橘
子就能“骗”过特斯拉的系统。
而且现在特斯拉FSD全自动驾驶硬件已经发布,依然依靠现有视觉为主的感知方案,马
斯克就认为足够开启全自动驾驶了。
该能力甚至都无需特斯拉车主握住方向盘,就能实现特斯拉从家中车库到公司车路的全
自动驾驶。
马斯克还放话说,明年(2020年)还要推出RoboTaxi,推动100万辆特斯拉成为无人驾
驶出租车。
至于安全准备,马斯克不以为意。
在RoboTaxi的目标中,Waymo实际路测了2000万公里,还小心翼翼在中西部城市凤凰城
郊区保守体验。
而马斯克认为,每一辆上路的特斯拉,或多或少都在阴影模式下参与了特斯拉自动驾驶
路测。
什么叫阴影模式,就是在特斯拉提供车主使用一些最新自动驾驶功能,并在后台通过“
阴影模式”帮助特斯拉后台迭代自动驾驶算法。
很多特斯拉车主,也对此觉得并无不妥。
如外界评论的那样,很多特斯拉车主并不会意识到自己当了马斯克的小白鼠,直到车祸
发生。
然而,一旦有车祸发生,特斯拉不会像Uber无人车那样被直接追责,特斯拉官方和其他
车主会异口同声说:AutoPilot很好,使用不当是当事车主的错。
你说,这样的小白鼠哪里找?
因为一旦车毁人亡,特斯拉会更倾向于认为:车主没有正确使用AutoPilot.
这就是在最新一起特斯拉致命车祸调查后,特斯拉官方给出的回应。
《连线》报道,美国国家交通安全委员会(交委会)周四公布调查结果称,2018年3月1
日发生在佛罗里达州德尔雷海滩的Model 3致命事故中,特斯拉电动车的自动驾驶系统
(Autopilot)处于启动的状态。
这是美国发生的第三起与特斯拉自动驾驶系统有关的致命事故。
交委会的初步报告说,这名司机在撞上一辆半挂车前大约10秒启动了自动驾驶系统,在
事故发生前不到8秒,系统并没有检测到司机的手放在方向盘上。
然后这辆电动车和半挂卡车撞击,车顶被刮了下来,车毁人亡。
该机构说,这辆车在一条限速每小时55英里(89公里)的公路上以每小时68英里(109公里
)的速度行驶,自动驾驶系统和司机都没有进行任何规避危险的动作。
特斯拉公司在一份声明中说,在司机启动自动驾驶系统后,他“立即将手从方向盘上移
开。那是整个驾驶过程中车主唯一一次使用AutoPilot。”
特斯拉还补充说:特斯拉所有的司机在使用自动驾驶系统的情况下行驶了超过10亿英里
,我们的数据显示,如果一位细心的司机使用得当,如果他随时准备控制局面,那么由
自动驾驶系统支持的司机比那些没有帮助的司机更安全。
什么叫使用得当呢?
就是使用AutoPilot的时候,车主要保持高度专注。
但《连线》杂志也发问特斯拉了:为啥一辆大卡车横在前面,AutoPilot的系统“看不
见”?
在特斯拉的AutoPilot和“全自动驾驶”方案中,一直宣称使用视觉为主的方案就足够
安全。
但事实证明,并非如此。
实际上,这Model 3的事故调查结果,跟之前其他特斯拉致命车祸并无明显不同。
2018年3月,在美国加州山景城发生的一起致命事故中,特斯拉表示,车辆日志显示,
司机收到了将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。事故发
生时,这辆Model X车处于自动驾驶模式。
2016年5月,一名特斯拉Model S司机在佛罗里达州威利斯顿附近被撞死,当时他启动了
自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。
更早之前,被称为特斯拉首例死亡车祸的事故中,也是AutoPilot状态下的特斯拉,没
有识别白色外观的大卡车,于是不减速撞击, 车毁人亡。
但即便如此,马斯克仍然觉得,视觉方案已经足够安全,用激光雷达的自动驾驶方案都
是大傻X.
而且AutoPilot本身,就存在一直被热议的高级辅助驾驶悖论。
自动驾驶分级中,共分5级,级别越高,人类参与驾驶的程度就越低。
特斯拉的AutoPilot,虽然特斯长期以“自动驾驶”对外宣传,但业界始终认为处于L2-
L3之间,属于高级辅助驾驶。
这种高级辅助驾驶可以帮助人类提升驾驶体验,但依然需要人类在驾驶中处于主导地位。
矛盾之处也正是如此。
一方面,AutoPilot可以代人在一些场景下驾驶,但另一方面又要求司机在紧急情况下
接管汽车。
这就要求一个长时间放松的人,必须还要时刻专注在车程中。
换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。
很多特斯拉车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度
信任特斯拉视觉感知系统的能力。
于是当“老师点名提问”来临,他们往往措手不及。
当然,特斯拉也并非完全没有针对性方案。
比如监测到司机双手没有握着方向盘,就会提醒,但后来也出现很多攻略,比如一个橘
子就能“骗”过特斯拉的系统。
而且现在特斯拉FSD全自动驾驶硬件已经发布,依然依靠现有视觉为主的感知方案,马
斯克就认为足够开启全自动驾驶了。
该能力甚至都无需特斯拉车主握住方向盘,就能实现特斯拉从家中车库到公司车路的全
自动驾驶。
马斯克还放话说,明年(2020年)还要推出RoboTaxi,推动100万辆特斯拉成为无人驾
驶出租车。
至于安全准备,马斯克不以为意。
在RoboTaxi的目标中,Waymo实际路测了2000万公里,还小心翼翼在中西部城市凤凰城
郊区保守体验。
而马斯克认为,每一辆上路的特斯拉,或多或少都在阴影模式下参与了特斯拉自动驾驶
路测。
什么叫阴影模式,就是在特斯拉提供车主使用一些最新自动驾驶功能,并在后台通过“
阴影模式”帮助特斯拉后台迭代自动驾驶算法。
很多特斯拉车主,也对此觉得并无不妥。
如外界评论的那样,很多特斯拉车主并不会意识到自己当了马斯克的小白鼠,直到车祸
发生。
然而,一旦有车祸发生,特斯拉不会像Uber无人车那样被直接追责,特斯拉官方和其他
车主会异口同声说:AutoPilot很好,使用不当是当事车主的错。
你说,这样的小白鼠哪里找?