专栏名称: DeepTech深科技
“DeepTech深科技”是与麻省理工科技评论官方独家合作的一个新科技内容品牌。我们专注于关注三个方面:1、基于科学的发现;2、真正的科技创新;3、深科技应用的创新。
目录
相关文章推荐
新浪科技  ·  #深圳368套房开盘3.5小时后售罄# ... ·  4 天前  
新浪科技  ·  【#特斯拉美国ModelS涨价#】特斯拉美国 ... ·  4 天前  
51好读  ›  专栏  ›  DeepTech深科技

美交通部:自动驾驶的伦理问题要由政府定义,撞车还是撞人?

DeepTech深科技  · 公众号  · 科技媒体  · 2016-09-14 00:01

正文



自动驾驶领域的飞速发展让一些人开始担心,未来的汽车或许会面对棘手的伦理难题。比如,是否应该猛打方向,以避免对车外的行人造成严重的伤害。


美国国家运输安全委员会(National Transportation Safety Board,NTSB)主席克里斯多夫哈特(Christopher Hart)是这些人中的一员。他对《麻省理工科技评论》表示,十分有必要出台相应的联邦法规,以确保今后的自动驾驶汽车能遵守基本的道德原则。与此同时,还需要颁布相应的安全规范,以确保这些准则能够得到可靠地遵守。


哈特表示,美国国家公路交通安全管理局(National Highway Traffic Safety Administration,NHTSA)有可能要求自动驾驶汽车的设计者们,为他们的汽车重要零件上安装类似于飞机上的防故障装置。



一辆梅赛德斯奔驰自动驾驶汽车原型


哈特表示,在不远的将来,政府将不得不介入到这一领域,并且要求汽车制造商们,“你必须向我们展示,你们发生故障的几率小于某个百分比。或者,你要向我们展示你的防故障装置,确保自动驾驶的失效不会引起人员伤亡。“


哈特还提到,将来还必须出台有关规定,确保伦理特权能以合适的方式编入控制软件中。


他提到了一个例子,在一次有可能致命的碰撞中,一辆自动驾驶汽车必须作出一个艰难的决定,是撞上一辆失去控制的卡车还是冲向人行道,并撞上行人。哈特说,“对我而言,这种情况必须由联邦政府给出一个合适的解答,而这类伦理选择在将来是无可避免的。”


在过去的八个月时间里,美国国家公路交通安全管理局一直在评估它该如何立法规范无人驾驶汽车,并且即将在最近公布一份指南。到目前为止,该机构还未将自动驾驶汽车的伦理问题纳入讨论范畴。


目前,包括加州在内美国部分地区,已经出台了有关自动驾驶汽车的规范,这些规范针对的就是由Alphabet和Uber等公司开发的自动驾驶汽车原型。


加州法规要求自动驾驶汽车必须有一个可以随时接管车辆的安全司机。此外,当需要司机介入的事件发生之后,公司还必须提交一份详细的报告。

 



华盛顿大学机器人法学专家瑞恩·卡罗(Ryan Calo)对于将目前理论的伦理讨论移植到实际系统中持怀疑态度。他不认为,这些自动驾驶汽车已经发展得足够精密,能够理解临现实生活状况中的不同因素。


卡罗认为,真正的困局在于,人们是否愿意开发能避免绝大多数事故,但又有可能犯下人类不会犯的致命错误的自动驾驶汽车。

 

卡罗说:“如果无人驾驶汽车同时遇上了购物推车与婴儿车,它或许无法做出符合人类道德的选择,即认识到购物车不如人类重要。但是从另一个角度,在平时,这种汽车可能在比大多数人更安全,而拯救了成千上万人的生命。”

 

帕特里克·林(Patrick Lin)是波莫纳加州理工大学的哲学教授。他致力于研究自动驾驶与伦理道德的关系。他的合作伙伴则是戴姆勒奔驰旗下的非盈利分支机构。他认为,汽车作出伦理抉择这一话题不应该被忽视。传感器、人工智能以及面部识别软件等方面的进展将很有可能使得汽车拥有作出伦理决断的能力,比如,选择牺牲一个人的生命以挽救另一个人。

 



“在这些问题真正的出现之前,我们最好能够主动地预测并且解决这些问题。这类问题如果处理不慎,引发的法律诉讼将有可能会摧毁整个公司,或者在整个工业界留下巨大的阴影。”


在伦理以及其他安全方面的联邦标准也将为无人驾驶汽车的决策带来部分透明性。帕特里克·林教授表示,一般而言,汽车制造商们希望将他们的汽车软件的内部逻辑保密,以防止黑客或者其他竞争对手窥探。“汽车制造商们对于软件程序以及碰撞优化逻辑是出了名的保密。”





招聘

编辑、视觉设计、运营助理、实习生(编译)

地点:北京

联系:[email protected]


IEEE中国是DeepTech深科技的战略合作伙伴,想要获得最新的科技资讯和会议信息,敬请关注IEEE中国。



MIT Technology Review 中国唯一版权合作方,任何机构及个人未经许可,不得擅自转载及翻译。

分享至朋友圈才是义举


DeepTech深科技

     ID:mit-tr

长按关注