文:橘子
编辑:乔乔
随着科学技术的迅猛发展,人们在科幻作品里对于机器人的畅想如今已不再显得那么遥不可及。
人类已经与自动机器共享道路、天空和医院,汽车在高速公路上自主操纵,军用无人机自主选择导弹轨迹,医疗机器人自动寻找和移除肿瘤都将变得司空见惯。
随之而来的有一系列伦理问题。
当机器人伤害人类时,例如自动驾驶车辆杀死行人时,我们将如何理解他们的道德责任呢?
自主权
被认为是
道德责任判断
中最为关键的因素。
比如,当小朋友犯了错时,我们通常不会认为他们应该为这个错误行为承担很大的责任,很大程度上是由于他们的自主权有限。
我们很少考虑普通飞机和汽车的伦理问题,但是对于无人机和自动驾驶汽车的伦理问题却充满关注,主要也是由于他们具备了自主行动的能力。
在进行责任分摊时,会出现一种“此消彼长”的情况
(甩锅)
。
比如军官将责任归结于开枪的士兵,从而逃避责任;
士兵将责任归结于下达命令的军官,降低自己的责任。
类似的,当机器人的自主权逐渐增加时,通过将责任归因于机器人从而使自己免罪的情况可能增加。
一些科学家总结提出了可能和自主权以及道德判断相关联的机器人的“心理”能力。
这些因素可能
影响我们是否认为机器人应该负道德责任
。
情境意识 situation awareness
当我们认为一个人要对他的错误行为负责时,这个人必须意识到这个情境中特定的道德问题,即知道他自己的行为是错误的。
当一个机器人表现出他了解自己行为的负面影响时,我们更可能认为他应该对这些负面影响负责任。
目前的机器人情境意识有限,但他们也确实具备一定的理解,比如,自动驾驶汽车知道行人是被保护的,医疗机器人知道健康的器官是不应该被伤害的。
在机器人的情境意识提高之后,我们更可能认为他们应该负道德责任。
意图性 intentionality
人们往往会推断一个有意地行为背后的愿望和原因,这导致人们会认为一个人或者机器人更应该对他的故意行为,而不是无意识行为负责任。
目前的机器人确实是通过评价一系列选项来“有意图”地达到目标。
人们越认为机器人有意识、能够理解和选择自己目标,就越可能赋予机器人道德责任。
自由意志 free will
自由意志是道德责任判断的基石。
虽然机器人不被认为具有丰富的自由意志,但它们被认为具有独立实施行动的能力,但这种能力是通过可预测的编程实现的,这种可预测性一定程度上破坏了自由意志。
随着技术进步,比如深度神经网络的发展,当机器的思想对我们来说不再这么透明时,我们可能会赋予机器人更多的道德责任。
和人类的相似度 human likeness
机器人的拟人程度越高,人们越多认为他具有心灵,因此有更多的道德责任。
拥有类似人体的身体、声音,以及面孔,都会使人们将更多的道德责任归结于机器。
潜在的危害 potential harm
科学进步之后,机器人在行动上受到的诸多限制可能被解除。
能力的增加,比如移动、射击等,意味着他们能带来的危害大大增加。