原文转载自微信公众号:DriverlessCar
早在1939年,通用汽车就已经首次提出无人驾驶的概念,1958年,第三代Firebird问世,并且BBC现场直播了通用在高速公路上无人驾驶概念车的测试。通用使用了预埋式的线缆向安装了接收器的汽车上发送电子脉冲信号。
然而这一切并没有进行的很顺利,尽管70年代开始欧美就以开始大规模进行研发工作,但直到谷歌完成了近20万英里无人驾驶测试,无人驾驶汽车概念才被众人所熟知。很显然,过去的几十年里,背后一定有某种短板在制约它的发展、
机器人动作在我们熟悉的汽车行业里,算是复杂的躯干扭转运动,集成视觉探测传感器,可以相当于一个三岁儿童的感知和运动能力。但这还远不及工业发展智能时代所需的能力。
当机器人学家还在研究移动智能机器人的道路上举步维艰时,制造一辆安全可靠的无人驾驶汽车从技术上而言已经触手可及。这必将是人类历史上的一项伟大的科学壮举。
首先因为汽车的运动优势,是滚动而非爬行、跳跃或者行走。
这样对于程序员来说,编写代码更加容易。假设无人驾驶汽车像人工机器人那样具备多个肢体关节,那么管理其动作快速运行的软件从体量和复杂性都要比智能汽车大得多,因为多肢体关联动作可以演化出众多不同的动作组合模式。相反,汽车的四个轮子、刹车以及方向盘的组合模式数量却少得多。
其次是汽车运动是重复的,刻板的反应式“傻瓜”运动。
无人驾驶主要的任务是识别路面的各类危险,交通信号,移动和静止的物体。然后在运动过程中对以上情景有安全,及时的动作反应。
由于交通信号是人类编写,路面的物体也是人类行为创建和可干预的,所以对于视觉感知系统来讲,一切新鲜的事物和场景只需要识别,存储,当遇到问题时迅速调取,采取行动。这一切都是重复的,深度学习可以协助人类把数据预先“喂养”到汽车的“大脑”里。
尽管无人驾驶汽车理论上是可实现的,但并不意味着发展过程会一帆风顺。
现实的因素在于它的技术门槛很高,尤其是软件程序的稳定性和逻辑完美程度。
可以回想谷歌,Uber的无人驾驶汽车出现交通事故的新闻中,受大众舆论和政府的质疑和谴责有多么严正。
是的,一个重达两吨的“铁盒子”在市区里凭软件控制去移动,一旦出现问题,后果不堪设想。而这些问题完全是混乱的,多样的,从ADAS系统去不断地收集数据,分析,作出判断的过程是复杂而缓慢的,机器视觉目前为止还需要提升计算能力和感知能力。目前并不能解决所有安全问题。所以单从“生命安全”角度去了解背后的技术措施,就已经可以预测到软件技术必将是瓶颈。
这也可以用现实的例子去解释:大量的无人驾驶汽车试验和批量应用都在人烟稀少的地区,像工厂的物料配送,农场的收割活动。因为这里的干扰环境相对简单、重复,对于软件来讲,无需预设众多的突变情况应对措施。
制约无人驾驶发展的第二个原因完全是技术问题。尽管在99%的时间里,自动驾驶汽车的动作和运行大脑都在按规矩工作,但仍有1%的可能性会发生突发事件。生物有机会依赖于所谓的“本能”来应对外界环境的突然变化,但汽车如果面临堵车高峰期,无法像人类那样依赖“本能”去适应,调整常规的运行方式和逻辑思维。
其实在工业领域也如此,这种小概率事件之所以被称作“极端事件”,是因为其难以预测,结果却可能是致命的。虽然机器可以被“喂养”各类场景和物体,但现实充满了数不尽的,潜在的致命事件。管理无人驾驶技术的系统必须做出更安全,合理的举动,最大程度降低“极端事件”的不良后果。
即便如此,不可避免的事故依然会发生,可能是系统的bug,也可能是黑客入侵,但我们有理由相信,这相比人类驾驶汽车,要安全得多。
反对人士经常会提出质疑:如果发生事故怎么办,谁来承担责任?
其实这个问题很好解决,随着技术的推进,产品的发展,相关的法律也会被制定,例如:
未来的无人驾驶汽车更有可能是租赁关系,那么租赁公司是不是可以购买意外保险?
软件公司作为系统解决方案供应商,是不是也应该为事故承担责任,或者购买保险?
但,无论如何,极端事件越少越好,这也是目前制约无人驾驶汽车发展的主要原因。有太多的极端事件,尚不可控,也就不会有规模化的无人驾驶汽车普及。
Gavin出品,转载自DriverlessCar
专注无人驾驶汽车技术,资讯分享