我 相 信 这 么 优秀 的 你
已 经 置 顶 了 我
翻译|王海伦 选文| 小象
转载请联系后台
当你被告知一辆汽车的设计是撞向大树来避免撞向走到路中间的行人,你还会购买么?
随着自动驾驶汽车从科幻变成了现实,一个哲学问题成为全球技术人员激烈争论的焦点。但对于那些制造自动驾驶汽车的人们来说,这个问题有点无聊。
“电车难题”,是一个哲学思想实验的名称,介绍了作为和无为的道德区分。这个经典的例子是一辆失控的矿车,沿轨道冲向轨道上五名被遗忘的人们。你没有时间来通知他们,你所唯一能够做的是拉动开关将矿车转到只有一个人在上面的另一条轨道。以杀死一个人的代价你会拯救五条生命。你会怎么办?
对于该基本问题,有着各种各样的修改和调整,来审视不同方面的道德情感。如果不是拉动一个开关,而是把一个很重的人推到轨道上来阻止矿车呢?如果轨道上的五个人都是80多岁而另一条轨道上的一个人不到20岁呢?如果该轨道上不是五个人而是五百只猫呢?
现在,这个道德困境有了新题型:如果不是矿车,而你是在一辆失控的自动驾驶汽车里面呢?如果不是需要在千钧一发的时刻做出决定,而是你作为一名程序员把选项编程到代码中呢?如果不是选择一条道路上的五个人和另外一条道路上的一个人,而是需要选择汽车里面的唯一乘客的生命和道路上的五个行人的生命呢?
这像是直指对自动驾驶汽车恐惧的一个问题:把生与死的问题交给做出不透明而且可能不是社会最优的决定的那些加利福尼亚程序员的手上。毕竟,如果你知道一辆汽车的设计是为了保护过路不看路的那些行人会去撞树,你会购买么?
最近科学杂志上一篇论文提出即使法规也可能没有作用:调查显示这类自我牺牲的强制要求不会得到大多数的人们的支持,并且他们会因此不去购买自动驾驶汽车。当然,长远来看无能为力的人类驾驶者只会让更多人会失去生命。
对于X的工程师,负责开发完全自动驾驶汽车的谷歌的老铁们,这些问题并没有听起来那么有趣。“我们喜欢谈论电车问题”,该项目的首席工程师Andrew Chatham开玩笑说。
“我们还没有遇到这些问题,” 他说。“所有我们目前遇到的情况里,我们没有需要对一个婴儿车和一位老奶奶来做 ’二选一’ 选择的这种场景。即使如果我们遇到了类似场景,通常这意味着在几秒钟之前你犯了一个错误。作为一名道德的工程师,为了拯救生命,我的目标是阻止这种意味着我们搞砸了的情况发生。
他补充说:“这个问题需要反复思考,但答案几乎总是‘刹车’。你对直接在面前的事情更加自信。因为 ‘刹车’ 比转向别的地方更加精确。因此在得到一个答案之前需要一个非常极端的情况。”
即使一辆自动驾驶汽车遇到了从未遇到过的情况,它必须在两种致命的交通事故中做出二选一,并且刹车坏掉了,而且它的思维速度足以让道德选择成为一个因素(Nathaniel Fairfield),该项目的另外一个工程师,开玩笑说问题会是 “你会怎么做... 哦,来不及了。”)。即使理想情况下也没有真正受所有人认可的协议告诉我们应该怎么做。一个开放工具(moralmachine.mit.edu)的论文提出允许个人创造他们自己的道德困境,唯一的一致发现是人们的想法并不一致,连他们自己的想法很多时候都无法协同。所以我们最好不要把自己的观点编程到汽车里面。
王海伦
IT从业者,对大数据云计算人工智能等前沿技术非常感兴趣。