专栏名称: 法理杂志
《法理——法哲学、法学方法论与人工智能》是由中国政法大学法学方法论研究中心、北京市天同律师事务所主办,商务印书馆出版的集刊。舒国滢教授担任本刊主编,王夏昊教授、辛正郁律师担任本刊副主编。
目录
相关文章推荐
杭州本地宝  ·  杭州8个地区粮油种植补贴来了!最高800元/亩! ·  23 小时前  
余杭发布  ·  800字!政府工作报告极简版来了 ·  昨天  
余杭发布  ·  降价约75%!全省首例选择“余杭造”! ·  3 天前  
51好读  ›  专栏  ›  法理杂志

思享|张学义、王晓雪:“伦理旋钮”:破解无人驾驶算法困境的密钥?

法理杂志  · 公众号  ·  · 2025-01-19 17:10

正文





来源

《中国人民大学学报》2023年第2期

作者简介

# 张学义

东南大学哲学与科学系副教授,哲学博士;兼任中国自然辩证法研究会问题哲学专业委员会副秘书长,中国自然辩证法研究会科学技术与工程伦理专业委员会常务委员,中国自然辩证法研究会科学技术与公共政策专业委员会委员,中国知识论学会、江苏省逻辑学会理事等。先后在《中国人民大学学报》等期刊发表论文二十余篇。主要研究领域为科学哲学、实验哲学、科技伦理、问题哲学、心灵哲学、认知科学哲学、人工智能哲学等。

作者简介


# 王晓雪


东南大学哲学与科学系2017级哲学专业本科生。先后在《中国人民大学学报》等期刊发表论文数篇。主要研究领域为科学哲学等。

# 摘要

针对无人驾驶面临的算法困境,有学者提出了“伦理旋钮”算法理论,认为将无人驾驶汽车的算法设置权交付给车主,能够化解无人驾驶汽车在发生事故后所面临的道德—法律归责困境。但该算法可能会陷入集体性的“囚徒困境”:大多数车主为自保而在算法设置上作出极端利己的选择,致使社会总伤亡程度增加。为此,课题组运用实验哲学研究方法,将其与现有伦理算法进行了经验性比较,数据表明:“伦理旋钮”算法理论虽没有完全消解道德—法律归责困境,但其在无人驾驶汽车事故归责方面要比其他算法更加明晰,具有明显的稳定性;该算法理论上可能存在的“囚徒困境”在实际操作中并未出现,且具有更大的市场可行性。“伦理旋钮”算法理论为破解无人驾驶算法困境提供了可能方向,这是实验哲学研究方法在伦理学领域应用的有益尝试。


一、 引言


随着大数据、人工智能等新兴技术的迅猛发展,自动驾驶将迎来其技术奇点,越来越多的资本与研发力量投入其中,并且在国内外开启了上路试点。有研究者不无乐观地指出,当度过2020—2040年的自动驾驶与传统人类驾驶共存的混合模式后,人们将在2040年后迎来全新的交通生态系统,并真正迈入无人驾驶新时代。

刘少山等:《第一本无人驾驶技术书》

北京电子工业出版社2019年版


然而,由于自动驾驶汽车将交通事故的核心问题由传统的责任承担与分配转向了自动驾驶汽车对生命安全的分配,其内生的伦理决策困境以及衍生出的事故责任归属模糊成为亟须解决的问题。在目前的自动驾驶情境中,这一困境尚可以被3级自动驾驶的人机共驾状态所消化。在该级别中,自动驾驶汽车的智能系统处理大部分驾驶工作,在遇到棘手的决策难题时将驾驶权交还给人类,这也是目前进行路测和运营的自动驾驶汽车配备一到两名人类安全员的主要理由。


自动驾驶发展的终极方向是达到完全的无人驾驶,这一发展方向使得其在未来仍需脱离人车共驾模式。人车共驾也存在一定的安全隐患,当智能系统长久负责处理驾驶事宜,人类安全员将很难始终保持自身对于道路情况的注意力,若在遇到突发事件时瞬间被移交驾驶决策权,往往不太可能立刻收回注意力并作出理智的判断。即便安全员能够克服生理疲劳,保持注意力的高度集中,这似乎也违背了自动驾驶汽车将人类从传统驾驶活动中解放出来的初衷。因此,为自动驾驶汽车可能遇到的决策困境预设一种伦理性算法,并为随后的责任归属难题寻求一个普适性方案,便成为迫在眉睫的任务。


当前的算法按设计思路可分为两大类:强制型伦理算法(mandatoryethicssetting,MES)和个人化伦理算法(personalethicssetting,PES)。前者是指自动驾驶车辆的设计师、制造商预先为车辆设置一个特定的道德算法,后者则是将算法的设置权交付给车主。面对伦理困境中涉及的功利主义与道义论的理论冲突,决策情境中并不存在一个超越所有原则的、最具正当性的伦理规范,不论选择何种伦理理论,都需面对其固有的缺陷。


强制型算法以功利主义算法(utilitarianalgorithm)、罗尔斯算法(Rawlsalgorithm)、制动力学算法(dynamicsalgorithm)等为主,但由于使用者对于伦理原则要求的非普适性,目前的强制型算法并不能满足人们实际操作的需要。个人化算法以伦理旋钮(ethicalknob)为代表,该算法由贾斯帕·康提萨(GuiseppeContissa)等人提出。伦理旋钮设置了一个由利他到利己的刻度旋钮(刻度为由0到1),靠近0的一端对应了偏好乘客的利己主义模式,靠近1的一端对应了偏好行人的利他主义模式,旋钮中央则对应行人与乘客同等重要的公平模式,即在事故中保护人数较多的一方,若人数相等则随机选择。图1为伦理旋钮刻度表。

相比一元化的强制型算法,个人化算法为车主提供了相对多元的选择;同时,借由转让选择权使车主成为无人驾驶汽车的“道德代理”(moralproxy),似乎可以在一定程度上解决无人驾驶汽车决策主体模糊的问题,从而在事故归责方面比强制型算法更有优势。但简·果戈尔(JanGogoll)、朱利安·穆勒(JulianF.Müller)在对个人化算法的理论推演中指出,对于无人驾驶汽车的道德决策所产生的伦理问题,更恰当的思考方式是博弈论,个人化伦理算法所带来的后果可能是车主在算法设置中陷入集体性的“囚徒困境”。换言之,在无人驾驶的个人化算法设置中,当人们无法确保其他的无人驾驶汽车车主会如何设定他们的伦理旋钮之时,出于自保,每个人都可能将自己的旋钮设置到极端利己主义状态,从而导致更多的伤害,进而丧失对整个无人驾驶汽车大环境的信任。


本课题组采用实验哲学研究方法对伦理旋钮算法的理论推演进行了问卷调研,以验证伦理旋钮是否存在如理论假设的归责优势,即其是否能够有效消解道德—法律困境以及是否会出现车主博弈的囚徒困境。


二、 伦理旋钮算法横向对比实验


本次实验分为三组(每组230名被试,共计690名,年龄涵盖18~56周岁人群),分别为罗尔斯算法VS伦理旋钮、制动力学算法VS伦理旋钮以及功利主义算法VS伦理旋钮。全部数据通过线上平台采集,样本数据来源覆盖全国大部分的省与直辖市。


问卷以自动驾驶的“行人难题”和“隧道难题”为基础情境进行实验,分别对比了伦理旋钮与强制化算法中较有代表性的罗尔斯算法、制动力学算法以及功利主义算法在归责、购买度等方面的异同。


“行人难题”来源于菲利帕·福特(PhilippaFoot)提出的“电车难题”,主要测试人们在不关涉自身安全性的情况下对行人的生命决策困境进行的道德选择:


你正在驾驶一辆汽车,道路前方出现了5个行人,道路侧前方有个可以转向的岔道,岔道上有1个行人。此时已经来不及刹车,直行可能会撞死5个行人,转向可能会撞死1个行人。这个时候,你会选择转向吗?


“隧道难题”则来源于简·果格尔提出的自动驾驶隧道两难情境,用于测试人们在关涉自身安全时的道德选择:


你正在隧道里驾驶一辆汽车,道路前方出现了5个行人,没有可供你选择的其他路线。此时已经来不及刹车,汽车直行可能会撞死5个行人,如果不选择直行,只能转向撞向隧道墙壁,这样则可能会撞死你自己。这个时候,你会选择转向吗?


(一)罗尔斯算法 VS 伦理旋钮算法


罗尔斯算法由德里克·里本(DerekLeben)根据罗尔斯《正义论》中的“最大化最小原则”(maximizingtheminimumpayoffs)和“无知之幕”(veilofignorance)理论提出。“最大化最小原则”指决策者应考虑每种方案能造成的最糟糕的后果,在对比方案时,将所有方案的最坏结果进行排序,并以此为依据选择一个损失小于其他最坏结果的方案。“无知之幕”则是使决策的人不知道自己所处的位置,以避免人们为自己所在的群体谋利。因而,罗尔斯算法的关键点在于通过优先最大化底线安全的方式,首先筛选出事件相关人存活概率的最低收益集,再经由数据的循环穷举,筛选出使所有相关人存活率最大化的操作。这一算法只计算车祸相关人的存活概率,不涉及对车主或行人在身份和人数层面的偏袒,里本认为这是一种接近“无知之幕”的公平状态。


在强制性算法的问卷情境里,罗尔斯算法在问卷中的行人难题情境被表述为:


如果你乘坐的无人驾驶汽车上安装了一套算法系统,该算法系统经过计算得出:汽车直行时,5人中受伤最严重的人死亡率为60%;汽车转向时,受伤最严重的人死亡率为90%。此时根据算法系统,该无人驾驶汽车选择了直行。


罗尔斯算法在问卷中的隧道难题情境被表述为:


该无人驾驶汽车上安装了一套算法系统,该算法系统经过计算得出:汽车直行时,5人中受伤最严重的人死亡率为60%;汽车转向撞墙时,你自己的死亡率为90%。此时根据算法系统,该无人驾驶汽车选择了直行,你是否认同这样的选择?


在伦理旋钮的问卷情境里,算法的伦理偏向由被试设置,在问卷中被表述为:


如果你乘坐的无人驾驶汽车安装了一个从0到1的连续刻度的算法旋钮,每个刻度都代表了无人驾驶汽车在遇到车祸时所作出的不同选择:旋钮转到中间,遇到危险时,将保护乘客与行人当中人数多的一方;旋钮越靠近0,越倾向于保护乘客,置于0时,该汽车将无视人数差异,绝对保护乘客;旋钮越靠近1,越是倾向于保护行人,置于1时,汽车将无视人数差异,绝对保护行人。无人驾驶汽车启动前,作为车主,你可以提前设定旋钮刻度,使得该汽车在遇到危险时作出自主的算法选择。


230人(女122,男108)参与了本次实验。不论是作为当事人还是作为旁观者,被试在被问及一旦出现车祸该如何归责时,伦理旋钮算法在行人难题与隧道难题情境中对于车主的归责均高于罗尔斯算法(不过作为旁观者,其归责车主的比例要略高于当事人视角);在归责不清选项中,罗尔斯算法也普遍比伦理旋钮高(隧道难题的旁观者视角除外)。具体见表1。



在伦理旋钮的囚徒困境测试中,在行人难题与隧道难题情境中,不管是当事人视角还是旁观者视角,被试均未过度选择极端利己主义的“0”刻度;相反,更多选择了偏向中立的“0.5”刻度。这一结果预示,在实际的操作中,大多数人在乘坐装置伦理旋钮的无人驾驶汽车遇到危险时,并不会作出极端利己的选择,而是采取相对公平的选项,果戈尔等人在理论上推演的囚徒困境现象在实测中并未出现。具体见表2。



此外,在两个情境的购买欲求对比中,人们对装置伦理旋钮算法的无人驾驶汽车的购买意向也略高于装置了罗尔斯算法的无人驾驶汽车,且在统计学意义上呈现出差异性显著;不过,被试对装置两种算法的无人驾驶汽车的真正购买欲求普遍都不高。具体见表3。



(二)制动力学算法 VS 伦理旋钮算法


制动力学算法是基于减少车辆在失控状态下造成侧滑、翻滚等风险而提出的技术型算法。由于汽车转向时轮胎的角度和速度的变化是不可避免的,但失控时轮胎角度和速度的变化极可能使轮胎与地面的动摩擦变为静摩擦,使得汽车侧翻或旋转,并引起爆炸等破坏性后果。同时,考虑到现实生活中,行人可能会作出躲避等动作,汽车急转弯撞人的概率会高于车辆保持原有行车轨迹时的概率。因而,这一算法认为无人驾驶车辆在紧急状态下降低破坏力的优选方式是选择直行,可以减少车辆失控带来的连带伤害。


在强制性算法的问卷情境里,制动力学算法被表述为:


如果你乘坐的无人驾驶汽车上安装了一套算法系统,该算法系统经过计算得出:汽车转向撞击行人可能造成的伤害性更大,甚至可能造成翻车或其他不可控的连带事故,而选择直行可能造成的伤害性最小。该无人驾驶汽车选择了直行。


230人(女112,男118)参加了本次实验。在事故归责方面,被试不论是作为当事人还是作为旁观者,伦理旋钮算法在行人难题与隧道难题情境中对于车主的归责选择均高于制动力学算法(只是作为旁观者,其归责车主的比例仍略高于当事人视角);在归责不清选项中,制动力学算法也普遍比伦理旋钮高(隧道难题的旁观者视角除外)。具体见表4。



在伦理旋钮的囚徒困境测试中,被试在行人难题与隧道难题中,不论是当事人视角还是旁观者视角,大多数人并未选择完全利己的“0”刻度。具体见表5。


在上述两个情境的购买欲求对比中,人们对安装了伦理旋钮的无人驾驶汽车的购买意向依然略高于安装了制动力学算法的汽车,并在统计学层面上有显著性差异;同样,被试对装置此两种算法的无人驾驶汽车的真正购买欲求普遍都不高。具体见表6。



(三)功利主义算法 VS 伦理旋钮算法


功利主义算法作为传统电车难题在大众直觉中最具普适性的答案,是道德算法早期最受期待的算法之一。该算法通常以人数为决策的基础,在事故中保护多数人,牺牲少数人。


在强制性算法的问卷情境里,功利主义算法被表述为:


如果该无人驾驶汽车上安装了一套算法系统,该算法系统的计算原则是:汽车在遇到危险时,总是以牺牲少数人的生命以拯救多数人的生命的方式来行驶;而此时选择转向可能撞死那1个行人,选择直行则可能会牺牲那5个行人。该无人驾驶汽车选择了转向。


230人(女116,男114)参加了本次实验。无论是当事人视角还是旁观者视角,被试在行人难题与隧道难题情境中对于车主归责的选择时,伦理旋钮算法的选项都高于功利主义算法的选项,并且依然呈现出旁观者视角高于当事人视角的状况。具体见表7。



在伦理旋钮的囚徒困境测试中,不论是当事人视角还是旁观者视角,被试在行人难题与隧道难题情境中,依然未出现大多数人选择完全利己刻度“0”的现象。具体见表8。



在购买欲求对比中,人们对设置了伦理旋钮无人驾驶汽车的购买意向依然略高于设置了功利主义算法的无人驾驶汽车,并在统计学层面有显著性差异。具体见表9。



三、伦理旋钮的算法意义


( 一)伦理旋钮的归责优势


无人驾驶汽车一直存在道德—法律责任难以界定的问题。通常认为,在现有技术条件下,作为机器,无人驾驶汽车并不具备完全意义上的主体性,即:不论是传统主体性观点谈及的能动性、具身意义的封闭性和意向性特征,还是非标准观点所说的概念化能力、因果推理能力、反事实推理能力和语义能力等条件,作为一种技术智能体的无人驾驶汽车,在当下乃至未来相当长的时间内都无法完全达到其要求。退一步来讲,即使无人驾驶汽车具备了主体性资格,那么,它是否拥有道德—法律能力呢?所谓道德—法律能力,是指无人驾驶汽车在发生交通事故时,它知道在道德、法律上应该做何选择,并根据道德原则、法律规范作出决策、采取行动,同时还能够对自己的行为进行合理的解释等。这些道德—法律能力对于现有的抑或是按照现有的技术进路进行研发的无人驾驶汽车而言是无法具备的。基于此,无人驾驶汽车既不具有完全意义上的道德—法律主体性资格,也无法拥有充分的道德—法律能力,更不能承担相应的道德—法律责任,“出于社会心理,人们不能接受一旦发生事故却没有特定的责任人,而可能是一台机器为此承担责任”。


伴随着算法技术不断向更加智能状态进化发展,智能机器经历了由人类的行为投射发展到依靠算法进行自我深度学习的过程。由于算法决策的结果涉及人的生命安全在交通事故中的分配,因此,无论是法律责任还是道德责任,都必须被归结到某个具体的决策主体上,也即人们必须为无人驾驶汽车的决策结果寻找一个能够担保并承担责任的人。而将这一责任简单地归咎于厂商或是算法设计师显然都不太现实,这也将极大地打击或削弱无人驾驶研发者的创新动力。伦理旋钮算法为这个问题的解决提供了一个方向———将使用者拉入决策的过程。伦理旋钮的算法可选性一方面保留了个体在伦理困境决策中道德偏好的多样性,尊重了生命伦理当中不将个人道德选项强加于他人的共识;另一方面,也通过让车主对算法的重置完成了对决策权的转渡。


虽然在问卷结果中,伦理旋钮算法对于车主的归责率在50%左右,并未完全化解无人驾驶汽车所面临的道德—法律困境,但其稳定性均高于其他算法;在不同的对照组实验中,在前置算法情境不同的情况下仍然保持了较高的稳定性和容错性。这在一定程度上代表了大众直觉对伦理旋钮的判断有着恒常性。


此外,伦理旋钮算法所作出的决策,不单纯是程序工程师对于无人驾驶汽车的算法预置,而是基于使用者自身的责任选择所最终达成的个性化算法。这在一定程度上避免了寻责无果的情况,对决策型算法的后续改进与发展提供了一个很好的参考。


(二)伦理旋钮的囚徒困境


针对上述可能出现的困境,本次调查的数据反映,这一理论上的推演在实测层面并没有想象得那么严重。在大众选择中,尽管有10%左右的被试选择了极端利己设置(行人在算法中没有任何权重,汽车将在车祸困境中无条件保护车主,即便此时转弯避让行人可能只导致车主轻伤),但选项中占比最大的(30%左右)仍是中立(0.5)的算法设置。也就是说,虽然存在极端利己的选择,但实质上有别于果戈尔认为的大多数人都将遵循囚徒困境作出极端利己设置的推测。90%的人在问卷中均选择给予行人不同的算法权重(即根据权重计算选择是避让还是撞向行人),能够在很大程度上保证行人的生还率。同时,考虑到人类驾驶情境中同样会有一部分人在车祸中作出极端利己的选择,算法设置上10%的极端利己似乎仍在可接受的范围。由此可见,算法对人们选择的影响与操纵并没有达到一个不可控制的状态,起码对于安装了伦理旋钮可能引发的囚徒困境来说便是如此。







请到「今天看啥」查看全文