侵权投诉
当前位置:

OFweek电子工程网

MCU/控制技术

正文

责任判定是否会阻碍无人驾驶普及?

导读: 最近,美国一辆特斯拉Model S电动汽车在途径十字路口的时候,撞上了一辆正在左转的卡车。Model S的前挡风玻璃撞进了卡车底部,驾驶人也因此死亡。这是特斯拉自动驾驶系统Autopilot系统发布以来的第一起致命事故。

  最近,美国一辆特斯拉Model S电动汽车在途径十字路口的时候,撞上了一辆正在左转的卡车。Model S的前挡风玻璃撞进了卡车底部,驾驶人也因此死亡。这是特斯拉自动驾驶系统Autopilot系统发布以来的第一起致命事故。

  自动驾驶出了问题,后果应该由谁来承担呢?

  自去年发布自动驾驶功能之后,特斯拉就成了汽车界的黑科技代表。但今天,特斯拉被这起车祸狠狠地打了一个耳光,消息公布当天,特斯拉的股价一度下跌3%。而美国国家公路交通安全局(NHTSA)也表示,将针对这起车祸这展开调查,如果发现车辆使用的驾驶辅助系统不安全,未来可能会下令特斯拉召回产品。

  在车祸后,引发了各方争论,有人提出自动驾驶的车辆出了事故,责任应该如何判定的问题。如果是有人驾驶,那么驾驶人承担后果,那么自动驾驶出了问题,后果应该由谁来承担呢?责任判定问题会不会成为自动驾驶普及的障碍呢?

  一、特斯拉是怎么出事故的?

  根据媒体报道,事故发生时的路况良好,路面干燥,天气和环境都不算恶劣。这说明当时的路况没有问题,并不存在因为路面湿滑等客观原因导致的车辆失控。因此,问题只能出在自动驾驶系统上。

  对外公布信息时,特斯拉强调这起车祸是特殊情况导致的,他们的回应,“在强烈的日照条件下,驾驶员和自动驾驶都未能注意到拖挂车的白色车身,因此未能及时启动刹车系统。由于拖挂车正在横穿公路,且车身较高,这一特殊情况导致Model S从挂车底部通过时,其前挡风玻璃与挂车底部发生撞击。”

  从特斯拉给出的回应看,Autopilot是有严重问题的。所谓强烈日照,白色车身,都是光学上的概念。Autopilot忽略了卡车的存在,说明特斯拉的摄像头系统有问题。但雷达和超声波传感器不会受光线和颜色的干扰,它们为什么没有检测到卡车的存在?

  一种可能是车辆安装传感器探测出了问题,特斯拉的探测器未能探测到大卡车,或者识别错误,突然冲出的卡车车身很有可能并没有进入传感器和雷达的探测范围。

  当然,也有一种可能是特斯拉是撒谎,传感器的探测范围没有问题,识别到卡车的存在,有问题的是特斯拉自动驾驶系统的人工智能。

  无论是哪种原因,问题都是在自动驾驶系统上。

  二、责任判定并不是问题

  在这次事故之后,特斯拉很快就做了原因说明,在强烈的日照条件下,驾驶员和自动驾驶都未能注意到拖挂车的白色车身,因此未能及时启动刹车系统。

  解释的如此清楚,那么特斯拉是怎么知道事故原因的?其实很简单,特斯拉很快就找到事故原因,说明特斯拉车内对于汽车状态是有记录的。自动驾驶操作与人操作的信息都有记录,所以特斯拉很快就知道,自动驾驶系统误判,同时人没有对汽车进行操作。所以特斯拉判断是人和驾驶系统都没有作出反映。

  既然自动驾驶操作和人操作都有记录,那么责任就不难判断,机器操作的问题是自动驾驶系统的问题,人操作的问题是人的责任。

  所欠缺的只是立法问题,对于无人驾驶汽车的交通事故,立法如何对机器驾驶责任做判定,是判定厂商责任,还是驾驶人过于相信无人驾驶系统,未及时人工干预。

  其实,特斯拉自己要求用户的手不能离开方向盘,以应付突发情况,只是用户未必那么听话。

  所以,责任判定对于无人驾驶汽车并不困难,法律规定规范一下就可以了。

  三、无人驾驶的真正问题是技术

  特斯拉看似开了无人驾驶的先河,其实有人正儿八经地测试过特斯拉的Autopilot系统。结果表明,这套系统叫做“半自动驾驶”更加合适。因为在测试过程中,一旦出现复杂路况,或者碰上有问题的交通标识,这套系统就会作出错误的决策,最终还是需要人来纠正。

  实际上,与其说特斯拉的Autopilot与无人驾驶接近,倒不如说它更像是定速巡航结合自动变道。

  汽车行业对于无人驾驶阶段是有清晰定义的。一般来说,分四个阶段:

  第一阶段是辅助系统能采集信息采集,在关键时候,给予警告。

  第二个阶段是让在汽车自动做出相应反应。譬如紧急自动刹车(AEB),紧急车道辅助

  第三个阶段是在驾驶员监控的情况下,让汽车提供长时间或短时间的自动控制行驶,特斯拉的所谓无人驾驶就属于这个阶段

  第四个阶段才是完全自动驾驶,在无需驾驶员监控的情况下,汽车可以完全实现自动驾驶。

  特斯拉属于第三个阶段。而到了第四个阶段的车辆不会允许这次事故发生:高精度激光雷达在200米以外就能感知到大卡车的位置和速度。图形识别也能识别出大卡车,高精度3D地图知道前面的道路是上坡还是下坡,速度预期会如何。深度学习了人类驾驶经验的高度人工智能也会做出正确的判断。譬如加速远离大卡车。

  从长远来看,成熟的无人驾驶比有人驾驶更加安全。

  从反应时间上看,无人驾驶在对紧急状况的处理方面远超人类。在突发情况下,驾驶员从看到异常状况到做出行动需要0.6秒,而无人驾驶系统只需要0.1秒;人类即使不喝酒,也会有斗气车,疲劳驾驶等问题,而计算机系统不会出现疲劳、酒驾、醉驾、情绪。到了无人驾驶普及后,是可以实现车车互联,每辆车都知道周围的车想做什么,形成一个互相感知的系统。到了车车互联无人驾驶的阶段,附近道路上的车会形成一个整体的系统,各自选取策略,事故就更不可能发生了。

  所以,无人驾驶的问题不在什么责任判定,而是目前特斯拉的技术水平还不行,真正奔着第四个阶段去的不是汽车企业,而是互联网企业谷歌和百度。无人驾驶的真正问题在于技术,责任判定不会阻碍无人驾驶的发展。

声明: 本文由入驻OFweek公众平台的作者撰写,除OFweek官方账号外,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

X
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: