一、前言
这问题带有较多的、但不完全是科技本质。因为回答这问题的第一步是厘清一个纯规范的问题,亦即目标的定义,运用科技要达成什么目标(下文二)?决定目标之后,才能有意义地讨论有哪些方法可能实现目标。由于这些方法的具体内容属于程式设计师的工作,我身为法律人只能提出下述问题:是否有某些理由让这目标自始不可能达成?──正如不需要是工程师也能判断,从德国柏林出发,不可能单靠骑脚踏车就抵达巴西里约热内卢(下文三)。
二、目标:好的法官裁判
我预期大部分人会同意,如果真要有机器人法官的话,它的目标是做出好的法官裁判。我之所以这样预期的重要原因之一,是因为这目标大致上内容空洞,近乎套套逻辑。因此需要对它做一些精确化。
(一) 法官裁判
只有当人们仍然把机器人法官的工作结果称为“法官裁判”,关于机器人法官的讨论才有意义,换言之,在机器人法官相关问题中出现的概念,都必须把人类排除在外。例如“法官裁判”(richterliche Entscheidung)一词在此应该理解为一个──如果那是由人类做成而不是由机器做成时──可以毫无疑问被分类为法官裁判的动作。
(二) 好裁判
1.较大的问题出现在,当人们尝试将我上述那空洞定义当中的另一个元素,亦即形容词“好的”,装上实质内容时。这里同样也以机器人法官一词当作关键参考点:当一个裁判是由人类做成,而我们会称此裁判为“好的”的情况,相同条件下才能把机器人法官的裁判也称为“好的”。
2.什么时候我们会称人类法官做的裁判是好的?这是个大哉问,对此问题大致上有两种回答方式,一种是高标准的,另一种是低标准的。
(1)高标准的答案:此答案将裁判的“好”联结到内涵丰富的关于正义之想象。由于这种定义带着风险,可能将人类目前所做的一切都评价为“坏的”,因此这对本文的问题没多少帮助。
(2)低标准的答案:这可能是比较恰当的解法,它采最小内涵,主要是提供一个架构,让人们能够在其中进一步思考。
A.最小内涵首先是采负面表述法:所谓法官裁判的“好”,能够不仅依据量的标准来判断。我们不会仅因为裁判做成迅速或简短而称它好;就算迟来的裁判本身是坏的,也不意味“好”的定义只是快速做成裁判。
若尝试对“好”的定义做正面表述,也许可以借助某种法学图灵测试(ein juristischer Turing-Test)。原版的图灵测试是由人工智慧的先驱研究者,英国数学家Alan Turing所发明,用于回答这个问题:机器是否能够思考?Turing称他的测试为“模仿游戏”(imitation game),由一台机器和一个真人参与此游戏,另一个真人担任问话者,问话者与游戏参与者之间用文字对话。问话者的任务是辨识与他交谈的对象谁是机器、谁是真人,能够成功骗过问话者的机器便通过图灵测试(并能够自豪于自己会思考)。我们也许能说,机器人法官的目标首先在于产生出人们无法辨识为机器做成的裁判;其次才是产生出就算由人类来做也会被评价为好裁判的裁判。
借助这个法学图灵测试可以清楚见到,本文的提问满足于相对的、比较的“好”。本文想要知道机器人法官有无可能做出好裁判;此际,若设定一个人类法官也很难达成的标准,并以此来宣称机器人法官不可能做出好裁判,这是没什么意义的做法。这当然不表示我们那低标准的目标就是天花板;我们完全希望机器能够做出比人类更好的裁判,逐渐发展成有能力做出符合高标准的“好”裁判(前文(1)段)。然而,对于理想的好裁判之追求,于此可以暂时搁置,让我们来讨论更为迫切的问题,亦即实际的好裁判,那是我们今日已达成且不怕失去的。
B.“好”也可能做结构式定义,从各种不同的参考点出发,来定位出什么是好:我们称裁判是好的,因为它的结论和理由是好的。这做法清楚见于德国学界常见的裁判评析:一则评析可能完全赞同它所谈论的裁判,或者(较常见)只赞同结论,或者(较少见)只赞同其理由。由此观之,机器人法官所做裁判若要称好,该裁判的结论和理由都应该要被认为是好的,如果那是由人类所做而非由机器人所做。
三、自始不能达成的目标?
上段所述的结构将法官裁判的“好”区分为两个维度──结果相关与理由相关──这结构也成为下面讨论的章节架构。前开目标之所以不能达成,可能因为机器人法官没有能力做出好的结论(下文(一)),或者它所提供的裁判理由不可能满足吾人的品质标准(下文(二))。
不能因为个案中不可能完全排除有瑕疵的结论或理由,就说由机器人法官做出好裁判这目标不可能达成,因为理性并非要求在每一个个案中都达成目标,才认定目标实现。此外也应该记得本文采用“好”的裁判准据有相对本质(前文贰、二、(二)2.(2)A.):人类法官也不可能完全排除个案中犯错,因此才会存在救济的法律体系。
从哪个点开始,有瑕疵的个案结论会让目标自始不能达成,这是很难回答的问题。不过,若错误是科技因素造成的,则必然已达到此关键门槛,因为人类不会犯这种错误;用本文的相对判准来看,这种情况是一个迹证,指出法官的裁判反而因为自动化而变糟。
(一) 烂结论?
现在可以来问一个问题:上述目标,亦即做出好的裁判,对于机器人法官而言是否如同对于想要从柏林骑脚踏车到里约热内卢的骑士一样不可能?首先,若机器人所作的结论出于科技因素而有瑕疵,好的裁判便不可能。在讨论的开头要先提两个常见异议。
1.电脑不会评价?
(1)第一个异议具有科技本质,但也具有科技以外的元素,后面这元素留待下文叁、二讨论。举个例子:关于法律责任,法律上重要的不只是A这个人满7岁了没(德国民法104)或者是否未满14岁(德国刑法19),判准也包括此人是否处于暂时性的精神障碍(德国民法104)或精神疾病(德国刑法20),而解答后面这两个问题需要的不只是数学、逻辑和经验证据。
一些论者认为:许多法律问题的回答取决评价,而电脑不会做评价。法律适用不纯然是演绎和涵摄,而是也必须使用直觉或法感这类“软性裁判因子”,亦即隐性知识或无意识,而这些超出机器构造的能耐。尤其是涉及文化脉络时,例如若该类法律争议会依照人们身在何处而有截然不同的解决,以及在需要法律续造的非典型案例中,电脑必将失败。
(2)但本文认为这些批判不具说服力。他们对于电脑抱持过时的科技图像(下文);另一方面,当这些图像被修正后,我们也能清楚看到他们对法官抱持过于理想的图像。
A.电脑早就不只是“计算机”。超级电脑“深蓝”(DeepBlue)击败西洋棋世界冠军Gary Kasparov的历史性胜利,仍然属于机械式的暴力破解法之胜利,亦即一台以超越人类的速度计算完那超大决策树当中成千上万种走法的机器;但AlphaGo是基于完全不同的演算法:透过人工神经网路来深度学习。于此不必讨论这类程式设计技术的细节;这种程式设计的理念受到生物学的启发,尝试模仿我们的直觉式思考结果,亦即Kahnemann所称“系统1”的思考,尤其是AlphaGo的学习历程是由下而上,不再如同DeepBlue那样由上而下的学习。AlphoGo透过与自己对弈无数回来学习下棋,借此它发展出人们称为直觉、法感或甚至创意的能力,这能力并展现为AlphaGo与李世乭对弈的第2局中那著名的第37手。当世电脑能力的另一个证据是,已经出现由AI创作的第一件艺术品。
没有理由能够自始排除机器做出法学评价的可能性,例如在所谓的“监督式学习”(supervised learning)程序中,在“训练回合”里输入许多由真人做成的裁判让机器去消化,在“验证回合”里输入另一批裁判资料,检验机器与人类做成的结论是否相符──用专业术语说:机器能否预测人类所做的裁判。然后再用这个训练过的演算法去预测实际上尚未裁判的案例,并观察其表现。电子邮件的垃圾信过滤器、语言学习软体、信用卡盗刷的辨识、图像辨识等,都是依循相同的原则运作。裁判中的错误会在上诉程序中被人类修正,并当作后来的教材,垃圾信过滤器和语言学习软件也会随着使用而逐渐改善。带有学习能力的法学演算法,近来业已初试啼声。
法之续造(Rechtsfortbildung)未必是电脑所不能的。科技怀疑论者所提的异议,电脑没有能力做真正的全新创作,这也许对于艺术创作而言仍然很难,但对法律而言却不是。好的法之续造从来不是全新创作,反而几乎总是将已被法秩序承认的命题推导运用到其他的事物范围。
AI与其他任何领域一样,魔鬼藏在细节里。从一个局外人的角度主要关心的问题是,现有的资料集是否够大,可以用来让机器学习。就算关于杀人故意的案件有100则联邦最高法院判决可作资料,但相较于Microsoft、Yahoo或Google等公司用来训练垃圾信过滤器的上百万封电子邮件而言,100这数字小到看不见。有一些程式设计原则尝试用小资料集来学习;例如基于类比思维的“最近邻居法”,它是许多产品推荐系统(例如我们在Amazon和Netflix看到的)的基础。此外,用于模仿画家林布兰(Rembrandt)的画作或音乐家巴哈(Bach)的音乐作品之演算法,也没有近乎无限大的资料集可供学习。一些让机器学习道德思考的初步尝试,也是使用规模有限的资料集。
B.前文贰、二、(二) 2. (1)所称的“标准过高”:因为人类法官也不是每个都能永远正确;尤其是电脑既然已经能够学习评价、直觉和法感,要说电脑的表现一定比人类法官差,已非自明之理。
2.犯错的、歧视的电脑?
(1)第二个异议已被用于反对在许多生活领域里运用演算法──从授信,到发给大学入学许可,到企业的面试邀请,特别是反对运用COMPAS──该异议说:演算法会犯错(下文A.);或者更糟的情况:演算法会造成歧视(下文B.)。
A.演算法容易犯错,这批评几乎见于所有文献;更别提安全性的问题。演算法倾向于过度诠释样板──例如在间接杀人故意的案件中,若被告的姓名开头字母缩写与判决结果之间存在某种关联,演算法会发现它。更严重的是回馈回圈,在许多生活领域中可能轻易发生:演算法的功能就像“自我实现预言”,它会启动一个“恶性循环”。当演算法得出的结论被用做产生未来结论的基础时,就会发生这些事。“它们定义自己的现实,并用此定义来正当化它们的结论。这种模式是自体循环的,高度破坏性的──且很常见的。”“资料正如被刑求逼供的人,侦讯者想要听什么,它就说什么。”
B.更糟的情况:这些错误并非随机分配,而是系统性地发生在弱势者身上。批评者说,演算法展现加倍的歧视:“它们倾向于惩罚穷人。”这比较不是因为演算法反映出它的创造者的价值观,而是因为演算法背后的数学。就算一开始将演算法设计为不受基本法第3条第3项所列那些“敏感”特征的影响,但若敏感特征与其它资料有相关性,大量使用这些资料后仍会导致敏感特征复活,并于演算结果中──主要是巨观层面──变得清晰可见。基于此原因,COMPAS被多次宣告为种族歧视:这程式原则上判定深色皮肤者有较高的再犯机率,且就算明确设定为不考量种族,仍会发生此结果;因为种族与许多其他因素有相关性,例如居住在犯罪显著较多的地区,没有固定的工作,常往来的亲友从事犯罪活动等等,这些现象在深色皮肤者身上更常见于其他的族群。
(2)这些批评虽然应该严正看待,但我认为它们并不具决定性。
A.“容易犯错”这论点可以用一句古老的智慧来大幅缓解,尽管不是完全反驳:犯错是人性。因此,犯错并不是放弃电脑的原因,而只是一句警语,叫人认真看待电脑犯错的可能性并谨慎应对。应对必须从用于训练程式的资料集着手,收集资料时谨慎以对;正如程式设计师们常言道:“Garbage in, garbage out”,演算结果的品质顶多等于训练资料的品质。此外也必须采取措施以预防上述的回馈回圈,是故,出于技术考量,不可能从下到上所有层级的法院都采用机器人法官;出于技术考量,系统上必须有“人类监督”(human oversight)的设计,诉讼法上尤其是透过上诉的可能性,由人类法官来实现监督。
不过我要借这机会提醒人们不可有某种心态,那是在电脑科技界常见的观念,并且一再以事不关己的语言被表达出来,其意旨是:错误是无法避免的,前进才是重要的。“正如演化,机器学习不可能每次都正确;事实上,错误才是常例,而不是例外。但这是OK的,因为我们舍弃那些错误,站在正确的基础上前进,累积成果才是重要的。”或者如同Facebook以前的企业格言:“快速行动,打破成规(Move fast and break things)”;成功之路是“快速失败,常常失败”。但这种被批评者称为“先求有,再求好”的心态,运用在司法上却是致命的,因为在那里被打破的东西是人民的生活发展。
B.歧视论点也能被克服。克服的方法既非──带着右派自由主义或放任自由主义的乐观──否定演算法的歧视作用,亦非──带着左派自由主义或社会民主主义的乐观 ──宣称演算法可被修正完善到使得上述问题根本不会发生。就算演算法会造成歧视,就算无法完全避免演算法的歧视──亦即就算悲观以对──也有两个理由反对完全放弃演算法。
a.首先,人们不该忽略,就算是人类法官也不能免于歧视的危险,甚至可能质疑人类法官是否有更严重的歧视。因为,就算机器运算出来的裁判结果反映出不良模式,至少可以明确排除那是出于意图,那不是被有计划地造成的──人类顶多是希望这结果发生,因此,如果这愿望被机器说出来,也非意外之事,“机器人法官可以在原则上确保,有史以来第一次,法律之前人人平等。”
b.其次,上述的科技批评其实只间接打到它想打击的目标(科技);它主要是社会批评。在一个不正义的社会中,演算法反映出既有的不正义;但大学和医院也反映出既有的不正义,我们却不会因为它们优待社会的特权群体或甚至扩大既有的不正义,而主张废除或自始不要设立大学和医院。病症回头影响甚至加剧病根,固然会让病情变得更糟,但这改变不了一件事:若只治标,无法期待真正的痊愈。
(二) 烂理由
裁判也可能因为理由烂而成为烂裁判。裁判应该具备好理由,这要求并非自明之理,而是来自我们对法律的特定想象,关于这想象会在下文叁、二、讨论。我们也能够想象一份裁判之所以被接受为好裁判,是因为它由正确的人所做成。权威导向的法律观念下,裁判可能不需要理由;重点是谁做的裁判,而不是做了什么裁判。反之,理性导向的法律观念下,理由是裁判合法性的关键基础;因为只有透过理由才能说明裁判不单是统治者权力的展现。我们在意裁判理由,因为它让我们能区分法律与君权,法治与恣意,法官与祭司;因此我认为,理性的法律观最能符合我们关于法律本质的想象。
单从形式结构,亦即抽离了一切内涵之后从抽象观点出发,已能提出何为“好理由”的两项标准:1.理由本身必须可了解;2.理由必须比结论更容易了解。我们不只会称下列理由为烂理由:矛盾的理由、不清楚的理由、错误推论等。就算裁判理由可了解,也可能无法支撑结论,因此那是个悬空的结论,此时我们也会称它是烂理由。从这两项用于评价裁判理由好不好的标准出发,可能对机器人法官提出以下的批评。
1.演算法是黑盒子(1.0):不附理由的裁判
单是第一个品质标准,裁判理由本身应该要了解,按今日科技水准可能就难以达成。因为恰恰是今日最强大的演算法,亦即前文贰、三、(一) 1. (2) A.提到的人工神经网路,往往只提供结论而无法交代为什么是这个结论,因此它是个从外面看不穿的黑盒子。类似于棋士或拳击手感受到“系统1”告诉他该怎么行动,但事后无法用语言说明这感觉;甚至也类似于,尽管博美犬看起来比较像波斯猫而比较不像格雷伊猎犬,但幼儿已经知道眼前这只动物是狗或是猫,演算法似乎也是如此运作,它们就是知道。
这是一个难题,任何想要导入机器人法官的尝试,都必须先克服此难题。因为只要演算法的运作如同黑盒子,它便是一边给了当事人不利的裁判结论,另一边却不跟他说明理由。明白地说:演算法正好不向当事人提出那让裁判结论具备合法性的基础,那唯一能够区分法官裁判与圣旨的理由。因为这是不够的:只跟当事人说,你的申请之所以被否决,是因为系统用资料充分训练过后做出了这样或那样的决定。许多人要求演算法的透明化或者“可解释的AI”,这类呼声在法律脉络中有着特别重要性,一个从“法律”本质而来的意义。
但我认为这问题是可解决的。人们必须写出透明的演算法;这里的“透明”意思是,让演算法不是只做出正确判断,而是也交代判断的真正理由。我不认为电脑自始不可能提出理由,尤其鉴于法律文章经常使用一些基础元素,而且电脑已经写出小说了。
2.演算法是黑盒子(2.0):找借口或者心口不一的裁判
(1)问题也可能不在理由本身,而是在于理由与结论的关系。质言之:就算电脑有能力交代理由,但我们如何确定那是它的理由?要如何区分真正的理由和虚假的事后找理由?在这个意涵下可以理解Gless和Wohlers的批判:电脑就算能提出理由,它也不可能“了解那里面的讯息”。
理由与结论的关系,仔细观察之下有两种意涵,一种是逻辑关系,亦即遵守逻辑法则之下,由前提得出结论;另一种是心理关系,亦即前提转变为动机,并由动机引起裁判结论。法理学继受自科学哲学的概念区分,“命题的证明脉络”与“命题的提出脉络”(Begründungs- und Entdeckungszusammenhang),部分即在描述逻辑关系与心理关系之区分。不必深究这些概念区分,对本文而言只要知道这件事就够了:逻辑关系与心理关系的合一当然是理想,亦即裁判的理由同时也是裁判的动机,亦即法官公开说出来的正是驱动他思考的东西。具有这种合一关系的裁判,我们不只会称之为“好的”裁判──因为这概念涉及对“好”的高标准想像──,而是更适合称为“诚实的”(aufrichtig)。若裁判的动机不能或甚至不被允许成为裁判理由,则会被批评为──借用深层心理学的词汇──合理化(找借口)。针对这现象甚至已有一些释义学研究,主要在侦查中羁押的法律讨论中,人们为此创造了一个概念叫做“非官方的羁押事由”(apokryphe Haftgründe)。
换言之,这个批评指向另一个黑盒子般的结构:机器人法官虽然有能力交代理由(因此与黑盒子1.0不同),但人们无法得知那理由是不是它真正的动机(因此是黑盒子2.0)。
(2)但我认为这个批判的威力也不应该太被高估,两个论点如下。
A.第一,我们也不知道人类法官是否诚实交代理由或只是找借口。“人类对于其他人而言也是个‘黑盒子’。”只要我们无法看进人类法官的脑袋里,以及不想废除法官评议的秘密性,就同样很难,甚至不可能发现法官是不是在找借口;除非动机强过正式的理由太多,以致在裁判理由中发生错误,引人怀疑台面下可能藏有其他动机。然而,此时并无必要寻找真正的动机,因为表面上已存在错误。
B.由此几乎可以直接得出本文的第二个论点:如果真的要做,区辨电脑是在交代真正理由或找借口的成功可能性应该大于区辨人类的。因为人们只需要努力将程式设计成不只会交代结论和理由,也会逐步记录工作历程。
逐步记录工作历程之举是否可能受阻于营业秘密的保护,这点毋庸在此讨论。在处理其他议题时(例如德国的联合征信公司SCHUFA)已经出现更强力的论点足资对抗营业秘密之说:为法律裁判写演算法者,已经放弃营业秘密,因为唯有此举才能建立法官裁判与神谕的区别。毕竟在此人们生产的不是可口可乐,而是法律。真正的问题毋宁是,当人们要求司法裁判不只应该给出好理由,而是也必须诚实时,这究竟是个法律诉求或道德诉求?但本文无法继续追究此问题。
四、小结
用于反对机器人法官的各种批判意见,没有一个是不能克服的。没有明显的理由可证,机器人法官不能产出好的法官裁判。所有迄今用于反对电脑判案的论点,若非可以用科技来克服,就是更加适用于人类法官身上。
于是我们来到核心问题:它并非能不能的问题,而是应不应该,或甚至容不容许的问题。这里我们不是要提出使用机器人法官的理由;这类理由已经在前文得出,机器人法官能够实现前文贰、一所提的目标,也能够做出好的法官裁判,这些主要是技术问题。这里要讨论的理由是,尽管有助于做出良好的法官裁判,但为什么不这么做?因为不是所有能达成目的之手段都被允许使用。法律上的阻碍可能来自两个层面:实证法的层面(下文一),及前实证法的层面(下文二)。
一、实证法上的障碍?
在德国,若要使用机器人法官,应该先修法。这不只因为现有法律的限制〔例如法官法(DriG)第9条第1款〕,也出自重要性理论的要求。一个如此重要的法案必须与更高位阶的法律相容,亦即可能面对来自宪法〔下文(一)〕和欧盟法〔下文(二)〕的质疑。
(一) 宪法上的障碍?
Enders提出一个宪法位阶的障碍:基本法第101条第1项第2句所称的“法定法官”(gesetzlicher Richter)只可能由自然人出任。此外也可以着眼于基本法第92条,该条规定:司法权托付给“法官”行使。然而,这论点只不过是空言主张,或者是个循环论证的空壳,其谓:机器人法官之所以不被允许,是因为基本法所称的“法官”只能是人类;但基本法为什么运用这样的语言,该理由是否具有超越特定历史时代的效力,论者毫无说明。这般理由只可能来自前实证法的层面,第二小节即将讨论。我在此预做摘要:该处的讨论又指回实证宪法,并局部确认了──迄今论者只是宣称的──机器人法官会抵触基本法第102条第1项第2句。
(二) 欧盟法上的障碍?
此外也可能涉及欧盟资料保护基本规则(DSGVO)第22条(另见欧盟指令第2016/680号第11条),偶尔有人视之为“个人资料保护法的基本条款”,该条文曰:“若裁判将对当事人产生法律效力或类似的重大影响,当事人有权不受到基于纯粹自动化处理──包含剖绘(Profiling)──的裁判。”但问题是,这条文第2项马上就掏空此权利:“第1项不适用,若裁判……b)基于欧盟法或对资料控制者有拘束力的会员国法容许不适用之,且该等法律规定有适当措施以保护当事人的权利、自由和合法利益,或者c)……。”换言之,不存在欧盟法上的障碍可阻止透过内国法来引进机器人法官。
二、前实证法的障碍:与法律本质不相容?
由以上可知,实证法门户大开。但这任务尚未解除,应继续思考是否存在先于实证法的考量可能改变本文迄今对AI有利的结论。
(一) 理性主义者与意志论者站在新版的涵摄自动机前?
前面贰、三、(一)1.已反驳过“电脑不会评价”的论点,那里也提到,这论点不应单纯理解为科技限制,而是也应理解为关于法律本质的命题,其谓:我们承认为法律的东西,有些核心特征是机器无法实现的;机器人法官这点子是理性主义者的美梦,“法官作为涵摄自动机”(Richters als Subsumtionsautomat)之新版,而那早在两个世纪前就已梦醒。
事实上,理性主义者──他支持这命题:法律的核心不是某个权威者的意志,而是理由的说服力;我在贰、三、(二)便已坦承认同此命题──是心不甘情不愿地放弃那美梦,所以如果有人许诺可以借助新科技来实现那美梦,理性主义者原则上会比那把法律视为权威或意志之表达方式者更热情拥抱此承诺。特别是,如果机器人做的判决不只是如同贰、二、(二)所述那样跟人类法官做的判决一样好,甚至能够随着科技进步而比人类做得更好,那么理性主义者想必更加接受它。
至于意志论者,虽然与理性主义者的思考起点不同,但两种观念最终得出的结论相去不远。因为意志论者虽然在第一步认为权威和意志优于理性,但在第二步和结论就能够──甚至是必须──同意他的对手。这第二步如下:如果权威者,也就是凭其意志来决断者,在听到(或者没听到也无妨)反对涵摄自动机的论点后决定使用机器人法官。最晚到了这一步,意志论者就必须带着他的反对意见撤退到一个没人会注意到的,因为政治上无拘束力的角落去,并且不管他是否出于己意,只能接受机器人法官也具有合法性。
(二) 真正的问题:不负责任的法律适用
1.论点:法律不可能有权力而无责任
上一小节的结论是,在机器人法官与法律理念之间找不到任何矛盾;但也许这是我所习惯的二分法所致,而该方法只间接触及问题。真正问题应该在于:于司法中使用机器人法官,恐怕会忽略法律(权利)这概念的另一个同等重要之面向:责任。
责任这概念是如此根本,它甚至超越了意志论与理性主义的藩篱。对于意志论者而言,责任是自明之理,因为他别无依靠;每个权威者都为自己所意欲的事物负责;他不能躲藏,否则他的决断就失去基础。反之,理性主义者乍看之下可以躲在理由后面,但他终究必须承认,他所提出的理由虽然打着普世效力的主张,然而一开始仍只是他自己的理由,他必须为这个理由的品质负责。
还可以为责任概念的根本地位提出另一个论据,至少是论据的草案:把法律(权利)理解为赤裸裸权力的对立概念;由于权力无所不在,所以法律(权利)的充分条件便是“总是与责任联结的权力”(dass Macht immer mit Verantwortung verknüpft wird)。这个联结不仅贯穿国家与人民之间关系的思想史,也贯穿公务员与人民之间关系的思想史。国家尝试用各种论证模式让自己与大型强盗集团有所区隔;不过这里重要的不是使用哪个特定的论证模式,而是哪一个都好,重点是义务人因为这个论证模式而承认自身有义务。公务员地位的正当性来自将“公职”(Amt)概念解为服侍、服务或代表他人行动,公职这身份甚至对他们的“一切行为”课予义务(联邦公务员法[BBG]第60条第1项第3句)。权力与责任的联结似也符合道德现实的结构,因为那已超出法律。可以从“神义论”(Theodizeeproblem)看到相同的问题,神义论问的正是:为什么全能者不承担全部责任?同时用圣经故事里的解方,亦即耶稣的道成肉身,来回答:唯有共同经历,才能使责任承担显得可信。
这里出现了反对机器人法官的关键且无法再反驳的论点:与人类法官不同,机器人法官并非站在他的裁判背后,因为严格意义上没有“他”。他不为他的裁判担保,更不会为裁判理由担保。机器人法官面对权力受体时不能看进对方的眼睛,不会将他当作人来对待,不会理解他,因为机器人法官不理解任何事情,更不会展现尊重;机器人法官顶多是模拟做出这些事,因为这黑盒子(3.0?)不仅是不透明,它根本就是空的。当人们在讨论机器是否能够思考和理解、是否有意识时(这我们后面第(1)D小节还会讨论),似乎忽略了关键并非这些能力,而是另一些更微不足道的东西:机器不仅一无所知、没有思考、没有生活经历,它尤其不像人类那样能够体验自己的独一无二、稍纵即逝与脆弱。所以机器人法官面对人民时总像个外来者,如果它一如字面所述的“不知”人生为何物,它如何能够裁决人民的人生?机器人法官是没有法官责任的法官权力(Roboter-Richter sind richterliche Macht ohne richterliche Verantwortung)。贯穿所有律所的权力与责任之联结,不容刚好在司法权中,在这“如此可怕的人间权力”上,有所松动。
2.批评及精确化
我想象有两种策略可能反对刚才这论点。第一种策略是争执“没人责任”这件事;也许在我们讨伐AI的十字军东征当中,忽略了其实有人可以负责(下文(1))。第二种策略的诉求更深层,是哲学观点,它──从伦理学或存有论的角度──挑战“人类负责”这观念(下文(2)A.),或者──从法学或政治学的角度──挑战权力与责任的联结(下文(2)B.)。
(1)寻找应负责的人
我们是否忽略了其实有人可以负责?
A.程式设计师负责?
首先容易想到的──正如程式出错而导致身体或生命损伤时,人们会做的一样──便是叫程式设计师负责。但这解方在事实上和法律上都不令人满意。
事实上,复杂的程式往往不是单一程式设计师的作品,而是团队成果,且这个团队的成员变动剧烈;后果是很快变成没有一个人透彻了解整套程式。这个Weizenbaum于1970年代就提出的问题,在近年来自动学习系统被广泛运用的环境下更显严重。可以称之为第4个黑盒子问题,或黑盒子4.0(尽管它与前两个版本的黑盒子位于相同层次上):复杂的程式甚至就连对于它的程式设计师而言也是不透明、密不透风的保险箱。
从法律观点看也有明显的问题。就算找出程式设计师来负责,他又不是受基本法托付来行使司法权的法官(Art. 92 GG)。可能有人硬要回说:不必然啊,总是可能找到很会写程式的法官吧。这论点可以如下反驳:这位写出了司法程式的法官集合莫大权力于一身,以至于已经不能再称他是法定法官了(Art. 101 I 2 GG)。
B.法人负责?
既然自然人的程式设计师不能负责,那么可否由法人来负责,那个于社会上、经济上和民事关系上促成演算法的法人?
上一小节的法律观点异议也完全适用于此:企业不是法官,更不是法定法官(Art. 92, Art. 101 I 2 GG)。另一方面,上一小节的事实层面异议似乎比较不适用于这里,但事实观点引出另一个规范问题。让我们想想,软件或程式属于哪间公司?在德国,候选人是Beck Verlag出版社(营运着Beck-Online资料库)、Juris-GmbH公司(营运着Juris资料库)或Wolters & Kluwer(营运着Jurion资料库),也许哪一天这笔生意有利可图到跨国网路垄断业者Google、Apple或Amazon愿意并购它们。这首先会是政治问题:一间能够自由决定企业价值观的公司,不只能将价值观反映在他们的用人决策,也能书写规则,然后运用这些规则并“以人民之名”(im Namen des Volkes),换言之,以我们全体之名,宣告何为法律。这同时也产生宪法问题:对于宪法层次的法定法官原则(Art. 101 I 2 GG)和民主原则(Art. 20 II GG)而言,这是司法受到企业的外部操控,是不能接受的。
如果演算法由国家或法院自己开发,上述的批判力道会比较弱。但仍然必须面对基本法第101条第1项第2句的法律上异议(法定法官)。只有一种也许(表面上)可接受的例外:某种事务虽由法院审理,但实质上是行政事务,在这情况用演算法来作裁判。这些裁判可能出于相同理由,并在相同范围内由机器做成,例如行政程序法(VwVfG)第35a条已允许部分的电子化行政行为。这里毋庸详论哪些具体案例属于此,关于基本法第92条的注释书中举例:出于民事执行名义的强制执行案件,具体的例如怠金之课处,某物件得否设质的查证。
C.当事人负责?
如果当事人同意呢?不能叫当事人自己负责吗?也许有人会如此反驳本文前述的思考,称本文是建立在关于人类法官的理想形象,一个和善的、乐于对话和倾听的人类法官,而忽略不提:司法对于许多人而言比机器还糟。受压抑的少数族群成员也许会认为,机器人法官是他唯一一个受到无成见裁判的机会。人们能拒绝他公平受审的机会,并说让他去面对人类法官的歧视才是比较好的吗?
这问题本身就是答案:当然不能强加歧视在任何人身上。但这答案的理由却值得仔细思考。
与表象相反,当事人的合意或同意未必能证立机器人法官的合法性。在我们的例子中,人民别无选择;他之所以将自己的命运交到机器手上,就像受强盗胁迫者交出珠宝。在刑事案件中,反对与支持合意的力量差不多,这分歧如同在协商程序当中是否适用合意原则的问题。反对刑事诉讼合意原则者──这是德国的少数意见,联邦宪法法院自述也属于此派──,当然不会用合意论点来引进机器人法官到刑事司法中。反之,接受合意原则者,或者如同所罗门王那般矛盾不诚实的立法方式,理论上拒绝合意(§ 257c I 2 StPO),实际上却践行。在刑事司法之外,特别是在财产相关的民事争议中,当事人合意的重要性可见于仲裁协议(§ 1029 ZPO);或许可以在类似条件下宣告机器人法官是合法的。例如双方当事人可以约定,将他们之间的争议交由机器人决定,就像他们可以约定不由法院审理,而由仲裁人决定,或丢骰子决定。这是司法有限度机器人化的第二个入口,用于解决一些契约关系,例如航空旅客权的纠纷。
毋庸强调,必须纠纷的所有当事人都参与,才能形成合意来使用机器人法官;原告不能代替被告舍弃由可负责的裁判者来裁决纷争之权利。合意也不能成为次级司法系统的外衣,这在其他脉络中已被控诉过,并有着如下的构造:“特权者……比较多由人类处理,大众由机器处理。”
本小节开头那个例子,由于担忧人类法官的歧视而逃向机器,那正好用来说明──在刑事司法中──唯一可理解的结论不是推导自当事人合意,而是来自紧急避难诸原则(Notstandsprinzipien)。这样做的优点是,可以同时给机器人法官设下界线。紧急避难这解方原则上是个Plan B,是个惨剧;所以原则上不应将它立为制度,否则Plan A恐怕会被世人淡忘。具体来说:尽管人类法官无法保证做出不带歧视的法律适用,但我们也不能仅因此就接受机器人法官这个不幸境地,因为是我们应该为这个带有歧视的司法负责,亦即依法组织社会的人类之责(unsere Verantwortung als rechtlich verfasste Gesellschaft von Menschen)。关于这份责任,下文(2)B.会再讨论。
D.机器人负责?
最后,人们应该避免提出“机械降神”(deus ex machina)的解套方案,推一台机器出来负责。虽然已有人开始讨论机器的刑事责任能力,甚至有人讨论要立机器人法,但这些尚未成为积极行动。这些命题只有在我们对于自己的人类属性作出“理性的牺牲”(sacrificium intellectus)之后──亦即不是只当作激发讨论的话题──才可能严正地被支持,因为事实上这些命题与机器较无关,而与人类较有关。