当前位置: 首页 > 期刊 > 《百科知识》 > 2017年第6期 > 正文
编号:13000959
自动驾驶车祸暴露人工智能弱点(1)
http://www.100md.com 2017年3月15日 《百科知识》2017年第6期
自动驾驶车祸暴露人工智能弱点
自动驾驶车祸暴露人工智能弱点

     2016年6月,在连续因自动驾驶造成交通事故,并导致驾驶者出现伤亡后,美国高速公路交通安全管理局(NHTSA)针对特斯拉的Autopilot系统功能展开调查。经过半年的调查,美国高速公路交通安全管理局在当地时间2017年1月19日宣布,并未发现特斯拉Autopilot功能存在問题,同时不会要求特斯拉对汽车进行召回。

    事故原因

    要理解这一事故的前因后果,需要简单回顾一下事件经过。2016年5月,一位名叫约书亚·布朗的驾驶者驾驶Model S与一辆卡车相撞,并在事故中丧生。当时布朗驾驶的Model S处于部分自动驾驶状态,这也是全球第一起因自动驾驶而致死的事故。当时,布朗开着他的Model S行驶在一条公路上,Autopilot处于开启模式,此时一辆拖挂车以与Model S垂直的方向穿越公路,Model S与拖挂车相撞,造成布朗死亡。

    美国高速公路安全管理局的结论是,特斯拉Autopilot不是完全自动驾驶系统,它根本无法应对所有路况,司机不应该依靠它来防止此类事故。在接受调查时,特斯拉公司也向美国高速公路交通安全管理局下属的缺陷调查办公室提供了配置Autopilot技术的Model S和Model X等汽车在2014~2016年所有行驶里程和安全气囊相关的数据。

    调查人员利用这些数据计算了Autopilot系统安装前后的撞车率,得出特斯拉安装了Autopilot系统后汽车更安全的结论。美国高速公路交通安全管理局在报告中也认同这一观点,自从特斯拉汽车于2015年安装了Autosteer(方向盘自主转向)软件以来,特斯拉汽车的撞车率已经下降了40%左右。Autosteer是Autopilot系统的功能之一,能够让特斯拉汽车保持在自己的车道上行使,即使遇到弯道仍能够让汽车自行转弯。

    尽管美国高速公路交通安全管理局的调查宣告结束,并得出了对特斯拉有利的结论,但这并非终极结论,因为美国国家运输安全委员会针对这一事故的调查仍在进行之中。

    另一方面,上述调查结果还不是事故的全部原因。根据特斯拉的调查,另一个原因才是此次事故的根本原因。强烈的日照和拖挂车白色车身让Model S的Autopilot系统摄像头短暂“失明”,未能够在白天强光下及时发现拖挂车白色侧面的反光,导致在自动驾驶模式下的刹车功能未能紧急启动。Model S与拖挂车相撞,其前挡风玻璃与拖挂车底部发生撞击,车主布朗不幸身亡。

    这个原因既是人工智能的技术问题,也道出了人工智能的本质。既然特斯拉Autopilot没有错,人就有错。因为特斯拉Autopilot的摄像头有问题。但是,即便摄像头没有问题,特斯拉Autopilot是否能分辨出道路上的实体车和虚拟车,以及雨天和雾天强烈阳光照射后出现的折光甚至彩虹?

    这个问题是要打问号的。因为,人不会完全教会自动驾驶汽车正确识别道路上的所有障碍物和危险情况。反过来也说明,这实际上还是人工智能的错误,因为它们还不能像人一样学习并获得符合道路实际情况的正确知识。

    人工智能尚难比肩人类的智能

    人工智能赖以立身的基础是机器学习(算法)和深度学习。对于前者,或许是人工智能的优势,因为在涉及数据和演算方面,人确实不是计算机的对手,因此当计算机掌握了某一游戏的所有算法、棋谱时,人类当然无法抵御人工智能。但是,在深度学习上,人工智能还处于非常幼稚的阶段,例如对图形和实物的认知,对逻辑推理的学习,以及对所有未知事物的学习和认知。

    一个幼儿园的小孩看过一张猫的图片后,能马上辨认出另一张图片中的猫,同时几岁的孩子在生活中见过猫之后,在后来的时间看见猫就能辨认出来。但是,谷歌图像识别系统(一种应用人工智能)看过和学习过成千上万张猫的照片后,才能从图片中识别猫,但是准确率大大低于小孩。而且,即便在图片上人工智能能认识猫,在现实生活中未必能识别真实的猫,也即人工智能区别实物和图像或虚拟事物完全无法与人类相比。

    特斯拉Autopilot在强烈阳光照耀下“亮瞎了眼睛”固然是技术原因,但也说明,即便它的摄像头没出故障,它学习和识别道路上的某些障碍物还不及人类的孩子。原因是,它可能没有遇到过诸如光的折射、彩虹一类的情况,而且人类还不足以教会它识别这类情况。即便汲取这次事故教训,改进了特斯拉Autopilot的摄像系统,使其能识别白色汽车和其他障碍物,并采取躲避或刹车,但是,遇到阳光照射到黑色、蓝色、红色或所有颜色的汽车时,特斯拉Autopilot的摄像是否不会出问题,而且都能识别出来?如果不能,车祸也难以避免。

    现阶段,尽管深度思维(Deep Mind)公司设计的Master能连续战胜包括棋圣聂卫平在内的60名围棋大师,但总体而言,人工智能目前的智能还是非常低级,有时连婴儿的智商还不如,再加上技术问题,如特斯拉Autopilot的摄像头在强烈阳光反射白色物体后短暂失明,就更容易造成事故。

    当然,强烈阳光反射白色物体也会让人的眼睛眩目而看不清前方的情况。但是,如果是车主布朗自己开车,在受到强烈的眩目刺激后就会产生本能的躲避行为,提前预判前面可能有障碍物,一是缓行,二是刹车,从而避免车祸的发生。

    人工智能的学习广袤无边

    这实际上涉及人工智能无论是算法还是深度学习的广度问题,凡是人工智能没有看过、学习过和接触过的东西,它都无法感知、辨认和识别,从而无法理解,因此难以形成正确的决策。

    对于人工智能来说,这种学习的广度实在是广袤无边,凡是人类社会的东西和事物,都是其未学习和接触过的,就本质来说,即便人工智能学习了,能感知人类社会的东西,但其感知也与人的不一样。例如,战胜60位大师的Master并不知道它在做什么,只是在按一定的算法和程序在做决定。 (杨欣)
1 2下一页