美国公路交通安全管理局(NHTSA)接连调查数起怀疑与特斯拉(Tesla)汽车自动驾驶模式有关的交通事故后,特斯拉公司甚至自动驾驶技术便陷入前所未有的安全质疑中。特斯拉随后发表声明称,事故并非因自动驾驶技术引起,并提醒车主在使用“Autopilot”自动驾驶模式时“仍有责任控制驾驶和保持警惕”。
这场风波或许会因为近日的一则新闻而“峰回路转”。美国密苏里州37岁律师 Joshua Neally 日前接受知名网络杂志 Slate 采访时称,7月26日,他在驾驶特斯拉 Model X 的途中突发疾病,但这辆车在 Autopilot 模式下将自己送往了医院。
Autopilot(特斯拉自动驾驶模式)现在很可能优于人类。
事件发生时,Neally 正驾驶特斯拉汽车回家,突然腹部剧痛并越来越严重,他感到像是“一根钢杆穿过了胸膛”。于是,他让 Autopilot 系统全面接管汽车,在行驶约20英里(32公里)后,来到一个高速公路的匝道口,Neally 才接过方向盘自己驾车到附近的医院停车场,向急救室求救。
医院的 Branson 医生事后告诉 Neally,后者患上肺动脉血栓塞栓症(PTE),这是一种致命性的栓塞。医生告诉 Neally,他很幸运地活了下来,因为全球每年因突发肺部栓塞而死亡人数高达5万,这些人中的70%都在出现症状的1小时内死亡。
事件公开后,有质疑指 Neally 是否应当将车停在路边打电话叫救护车,而不是依靠车辆的自动驾驶功能。Neally 回应称,在发病后,他的第一反应是尽快前往医院,而他觉得依靠 Autopilot 自行前往医院要比等待救护车更快。Neally 还表示,如果没有启动 Autopilot,当第一轮阵痛发生时 Model X 可能就会失控,自己的生命也会遭到威胁。
Neally 的经历让人们看到,自动驾驶技术的合理使用具有救人的潜力。随着时间的推移及技术的进步,这项技术也许会变得更加安全,但一个有待解答问题是,消费者是否应该容忍其在发展期间导致的严重事故。
与此同时,自动驾驶汽车以及更广泛的智能汽车还面临网络安全问题。分别来自中国安全厂商奇虎360、浙江大学和美国南卡罗莱纳大学(USC)的三位研究人员日前宣布,他们通过入侵自动驾驶系统和“欺骗”车载雷达,可以使特斯拉无法探测到前方障碍物,而黑客同样可以利用这种“欺骗”引起高速碰撞。关于相关实验的细节,他们已在近日于拉斯维加斯闭幕的 DefCon 黑客大会上公布。