来源:腾讯研究院
原标题:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》
作者:司晓(腾讯研究院院长)、曹建峰( 腾讯研究院未来科技中心高级研究员)
文章转载自《法律科学》2017年第5期,腾讯研究院
授权
「机器人圈」转载,未经许可,禁止二次转载。
随着自动驾驶汽车等智能机器人的自主性、学习和适应能力不断增强,一方面很难将其看作是人类手中的简单工具;另一方面伴随而来的可预测性、可解释性、因果关系等问题将使得证明产品缺陷责任等既有侵权责任变得越来越困难,可能带来责任鸿沟,使得被侵权人的损害难以得到弥补。
面对可预期的责任挑战,侵权法、合同法等法律规则的不充足性和局限性将逐渐显现出来,对新的法律规则的需求也将变得越来越迫切。为此,欧盟、英国、美国等已经开始探索新的责任框架。
为了更合理、有效地对智能机器人造成的损害分配法律责任,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是潜在的法律方案;但立法者或者法院最终选择何种方案,需要进行全方位的论证,以便实现法律的利益平衡目的。
“计算机仅能执行强制的指令——对其编程不是为了使其作出判断。”纽约一家法院曾经如是说。这或许可以代表公众对计算机和机器人的固有看法。但是,人工智能技术的进步,正使这一观点变得陈腐,甚至可能成为一个偏见。2010年以来,受到大数据、持续改进的机器学习和更强大的计算机这三个相互加强的因素推动,人工智能技术在ICT领域快速发展,不断被应用到自动驾驶汽车、医疗机器人、护理机器人、工业和服务机器人以及互联网服务等越来越多的领域和场景。国外一些保险和金融公司以及律师事务所甚至开始用具有认知能力的人工智能系统置换人类雇员。从国际象棋、智力竞赛(比如“Jeopardy!”),到围棋、德州扑克,再到医疗诊断、图像和语音识别,人工智能系统在越来越多的领域开始达到甚至超过人类的认知水平,让其辅助甚至代替人类进行决策,不再是空中楼阁。
现在有理由预见,
在不远的将来,交通运输、医疗、看护、工业和服务业等诸多领域的各式各样的智能机器(Intelligent Machine)或者智能机器人(Smart Robot)将成为人类社会中司空见惯的事物。
与此同时,智能机器人的民事责任(当然也有行政责任和刑事责任,但不在本文讨论之列)将日益浮出水面,成为一个不容回避的法律问题,需要法律和法院认真对待并回应。当高度自主、脱离人类控制且独立运作并作出判断的智能机器人造成人身或者财产损害,如何分配并承担法律责任?当前以人类行为者为中心的侵权责任和以产品生产者为中心的产品责任,在应对这一问题时,暴露出局限性。本文旨在对此进行论证并提出初步的建议。
为了讨论的方便,下文将不使用人工智能、人工智能系统等模糊性概念,
转而采用智能机器人这一概念,并将其界定为具有以下特征的实体:
(1)通过传感器、与其环境进行数据交换以及数据分析等方式获得自主性(Autonomy)的能力;
(2)从经历和交互中学习的能力;
(3)具有可见形体;
(4)随其环境而调整其行为和行动的能力。按照这一定义,自动驾驶汽车、医疗机器人、护理机器人等都可以被智能机器人涵盖,而自主性(包括自主进行决策)和学习能力则是其核心特征;而且在某种意义上,已经没有很强的理由将其继续看作是供人类驱使的被动工具。
二、智能机器人对侵权责任、产品责任等传统责任框架提出的挑战
传统的机器,无论多么先进,在评定法律责任时,存在一个决定性的共同特征。在每一个案件中,机器的功能和决策总是可以直接追溯到假借人类之手嵌入到其中的设计、编程和知识,或者存在对机器施加控制的人类行为者。这些机器,无论多么复杂,终归是为人类所使用的工具而已。以汽车等工具性机器为例,当发生事故、造成人身或者财产损害,要么可以以未尽到合理注意义务为由追究使用者的过错侵权责任,要么可以以产品具有缺陷为由追究生产者的产品缺陷责任。这意味着,传统的机器不具有法律人格的属性,仅仅是个人、公司或者其他法律上的“人”的工具或者代理,这些法律主体在既有法律之下对其各自的行为负责。
但是,在不远的将来,完全自主的机器将被推向市场,自动驾驶汽车有望成为最早的一批。为此,社会将需要考虑,在就自动驾驶汽车等智能机器人的侵害行为分配法律责任时,既有的责任规则是否可以游刃有余。毕竟,未来的自主智能机器将有能力完全自主行为,不再是为人类所使用的被动工具;虽然人类设计、制造并部署了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获取的信息的分析和判断,而且,它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。完全的自主性意味着新的机器范式:不需要人类介入或者干预的“感知-思考-行动”。
(一)过错侵权责任难以适用于智能机器人
在实际运作过程中脱离人类的控制,是智能机器人的一个核心特征。这一现象使得以人类行为者的注意义务为前提的过错侵权责任难以适用于因智能机器人的使用而产生的加害行为,因为智能机器人是独立自主地运作的,缺乏对其进行直接操作或者控制的特定个人。
以自动驾驶汽车为例,国际汽车工程师协会(SAE International)将自动驾驶技术划分为六个等级:非自动(Level 0),驾驶员辅助(Level 1),部分自动(Level 2),有条件自动(Level 3),高度自动(Level 4),以及完全自动(Level 5)。本文不讨论在驾驶员辅助和部分自动这两种模式下,驾驶员和汽车制造商之间的责任分配,仅讨论当人类使用者完全不参与驾驶时的责任承担。当自动驾驶汽车达到四级(高度自动)或者五级(完全自动)时,人类使用者的角色从驾驶者转变为乘客,不再需要对行车状况和环境进行监视或者在紧急情况下进行操作。因此,当四级以上的自动驾驶汽车发生事故、造成损害时,即使人类使用者处在驾驶位上,也无法诉诸过错侵权,让人类使用者承担民事责任。在此种情形下,加害行为、因果关系和过错都不能归咎于人类使用者。
不参与驾驶使得人类使用者不必负担驾驶者在汽车驾驶过程中所应尽到的合理注意义务,只要不干扰自动驾驶系统,他甚至可以在驾驶位上随心所欲,包括睡觉、玩手机等。当乘客乘坐的是自动驾驶出租车时,情况就更是如此,缺少人类驾驶者使得过错侵权责任无从适用。但在另一个层面,注意义务的承担者从人类驾驶者转移到了自动驾驶系统;可以肯定的是,适用于自动驾驶汽车的注意义务标准必然不同于适用于人类驾驶者的注意义务标准。
半个多世纪以前,美国法院在Arnold诉Reuther案中对此进行了论证。在该案中,原告Arnold女士在不遵守交规的情况下横穿马路时,被被告Reuther先生驾驶的汽车撞伤,Arnold于是指控Reuther过失侵权。Arnold主张,Reuther有“最后明显机会”(Last Clear Chance)来避免车祸,但其未能做到,因而应为此承担责任。法院对这一观点不予认可,认为:“一个人无论多么高效,都不是一个机械的机器人,不拥有像雷达机那样,在危险具体出现之前将其发现的能力。必须为人类的弱点和反应留出一定的余地,而如果这样的余地必须要求人类在零点几秒内作出反应,并且不能像现代机械装置那样,以机械的速度和精度作出反应,那么就必须承认,Reuther作为一个普通人,再怎么做也不能避免因Arnold的过失而给她本人招来的不幸。”
因此,在涉及自动驾驶汽车的第一起事故案件中,法院将不会问自动驾驶汽车是否像一个理性人一样行为。Arnold诉Reuther案的核心问题有关过失:Reuther在当时的情况下是否作出了合理的行为?但是对于自动驾驶汽车,由于没有人对其施加直接控制,问题的核心将是汽车自身的表现是否达到应然的状态,比如是否达到既定的行业标准。由于自动驾驶汽车不是有效的法律主体,询问汽车自身是否尽到所应负担的注意义务,将是不切实际的;于是,需要诉诸产品责任,寻找让自动驾驶汽车的生产者承担责任的事由。
(二)智能机器人的产品责任及其挑战
在我国,《侵权责任法》《产品质量法》《消费者保护法》等法律对产品责任作出了规定。具体而言,因产品存在缺陷造成他人损害的,被侵权人可以向产品的生产者或者销售者请求赔偿。通说认为,产品责任属于无过错的严格责任,只要产品存在缺陷,生产者就应当承担侵权责任,无需证明其存在过错。虽然被侵权人可以选择向生产者或者销售者请求赔偿,但这两个主体之间实际上构成不真正连带责任,向被侵权人承担侵权责任的一方可以向有过错的另一方进行追偿。因此,当无人进行操作的自动驾驶汽车等智能机器人造成人身或者财产损害时,被侵权人可以向缺陷产品的制造商主张产品缺陷责任,需要证明:产品有缺陷,损害事实的存在,以及产品缺陷和损害事实之间存在因果关系。
产品缺陷是产品责任的一个核心概念,各国通说一般认为缺陷主要包括设计缺陷、制造缺陷和警示缺陷,我国关于产品缺陷的认定标准体现在《产品质量法》第46条,包括“不合理危险”标准和产品质量标准。此外,《产品质量法》还为产品生产者提供了免责事由,包括:未将产品投入流通;产品投入流通时,引起损害的缺陷尚不存在;以及将产品投入流通时的科学技术水平尚不能发现缺陷的存在。只要产品生产者能够证明存在免责事由,就不承担赔偿责任。
在法律考虑赋予自动驾驶汽车等智能机器人法律地位之前,其在法律上的地位就依然是物,落入产品的范畴是不成问题的,产品责任自然也就有适用的余地,只要被侵权人可以证成产品缺陷责任。为了讨论的方便,笔者将分两种情况来论证。
证明产品存在缺陷可能是困难且受争议的,但如果被侵权人的损害能够归因于因制造商的人为失误而造成的产品缺陷,那么自动驾驶汽车等智能机器人的自动化程度再怎么高,也不会给既有的产品责任制度带来大的挑战。
按照我国的《产品质量法》,不符合国家标准或者行业标准的产品被认为具有缺陷。以Arnold诉Reuther案为例,假设Reuther先生乘坐的是一辆自动驾驶汽车,坐在后排,该汽车在距离Arnold女士15英尺时检测到了她并采取了紧急制动,但未能避免碰撞。再假设自动驾驶汽车行业存在一个“碰撞避免”标准:如果障碍物(包括人类)在距离汽车12英尺时被检测到,那么自动驾驶汽车必须能够在其行进路线上检测到障碍物并避免碰撞。
显然,在这种情况下,该自动驾驶汽车不符合这一行业标准,具有不合理危险,因为按照这一行业标准,碰撞本应避免。如果我们将这一行业标准换为15英尺,而将该自动驾驶汽车检测到Arnold的距离换为12英尺,此时证明缺陷的存在将很困难,即使依据《美国侵权法第三次重述》中的“消费者期待”标准(主要是指产品存在“不合理危险”缺陷)和风险-效用标准(产品的可预见的风险可以通过采取合理的替代性设计予以消除),情况也是如此。
此外,证明存在制造缺陷(比如部件失灵)或者警示缺陷(比如未能合理告知消费者如何操作智能机器人;在部分自动驾驶的情况下需要人类驾驶者保持警惕并进行操作的,如果制造商未能告知消费者如何进行操作,就需要承担产品缺陷责任),同样可以使被侵权人获得赔偿。
但问题是,人工智能技术的发展使得自动驾驶汽车等完全独立自主的智能机器人的出现成为可能,这带来的直接结果就是,一方面,证明缺陷尤其是人工智能系统层面的缺陷将变得异常困难,另一方面,事故的发生可能无法合理因归于智能机器人的设计或者制造缺陷。这将给产品责任带来直接的挑战。面对自主智能机器人,人们将需要开始审视既有的产品责任制度能否在制造商利益和消费者利益之间实现平衡。
产品责任只能让制造商对因产品存在缺陷而造成的侵害行为承担民事责任,但问题是,智能机器人的一些新特征可能使得无法将事故的责任分配给生产者等既有法律主体,尤其是当出现不能合理推断出事故是由设计或者制造缺陷造成的情形之时。虽然自动驾驶汽车普遍被认为比人类驾驶更安全,比如,麦肯锡公司的一份研究报告发现,自动驾驶汽车将使交通事故减少90%;但是自动驾驶汽车对交通事故并非具有完全的免疫力,而自主性、可预测性、可解释性、因果关系等因素将极大增加事件的无法解释性,带来责任鸿沟。具体论证如下。
第一,自主性与可预测性(Foreseeability)
。如前所述,自动驾驶汽车等智能机器人区别于传统的机器的最大特征在于具有高度的甚至完全的自主性。无论采用何种机器学习方法,当前主流的深度学习算法都不是一步一步地对计算机编程,而是允许计算机从数据(往往是大量数据)中学习,不需要程序员作出新的分步指令。因此,在机器学习中,是学习算法(Learning Algorithm)创建了规则,而非程序员;其基本过程是给学习算法提供训练数据,然后,学习算法基于从数据中得到的推论生成一组新的规则,称之为机器学习模型。这意味着计算机可被用于无法进行手动编程的复杂认知任务,比如图像识别、将图片翻译成语音、汽车驾驶等。
回到自动驾驶汽车,自动驾驶系统利用一系列雷达和激光传感器、摄像头、全球定位装置以及很多复杂的分析性程序和算法等,像人类一样驾驶汽车,而且做得更好。自动驾驶汽车“观察”路况,持续注意其他汽车、行人、障碍物、绕行道等,考虑交通流量、天气以及影响汽车驾驶安全的其他所有因素并不断调整其速度和路线。而且自动驾驶汽车被编程来避免与行人、其他车辆或者障碍物发生碰撞。所有这一切都是机器学习的结果。因此可以说,在每一个现实情境中,都是自动驾驶汽车自身在独立判断和决策,虽然是程序员设定了学习规则。学习能力和适应能力的存在使得预测自动驾驶汽车在特定情境中的行为成为一个问题。
此外,人类决策系统与现代人工智能系统存在一个本质上的区别,正是这一区别使得人类无法准确预知人工智能系统针对某个问题的解决措施。受限于人类大脑的认知能力,为了作出决策,人类无法在有时间限制的情况下分析所有的相关信息,所以人类常常退而求其次,选择一个自己满意的解决方法,而非一个最佳化的解决方法,经济学家Herbert Simon称之为“满意法”。
电脑计算能力和机器学习方法的不断提高,使得现代人工智能系统能够在有限的时间内精确计算所有的可能性,而且人工智能系统本质上不受提前预置的概念、经验法则、传统智慧等因素的限制,从而使其能够选择人类完全没有考虑过或者可能会实施的解决方案。正是这种能够作出独特决策的能力或者说自主性,让人工智能系统能够应用于更加广泛的领域,同时也让人工智能系统的设计者具有赋予人工智能系统这项能力的经济动力。
所以,尽管人类设计并制造了自动驾驶汽车等智能机器人,但却可能无法预见其具体决策,然而这种无法预见性可能正是系统的设计者所期待的。随着更加通用化的人工智能的发展以及机器学习技术的进步,人工智能的行为和决策的不可预见性问题将会更加频繁地出现,而且程度会不断加深。
更进一步,自动驾驶汽车可能“打破”预先设定的规则,大大超出其设计者的预期。人们一直担心,赋予机器自主“思考”的能力可能导致其有能力违反被给予的“规则”,以人们意想不到的方式行为。这不纯粹是想象,已经有证据表明高度“智能”的自主机器可以学习“打破”规则以保护其自身的生存。以自动驾驶汽车为例,尽管模拟测试对其行为和决策意味重大,美国交通部在其发布的《联邦自动驾驶汽车政策》中也强调模拟能够代表复杂的现实环境的测试环境的重要性;但是自动驾驶汽车脱离制造商控制、进入流通领域之后的学习和经历同样影响其行为和决策。新的数据输入可能使自动驾驶汽车进行调整和适应,导致其行为和决策超出预先设置的规则,这在理论上并非不可能。
再者,测试环境并不能穷尽所有的现实可能性,当异常情况(Novel Situation)出现时,自动驾驶汽车必须在缺乏预先设定的规则的情况下,依据其自己创建的规则,真正独立自主地作出决策。对于这种偏离预期的行为,以产品缺陷这一事由让生产者承担责任,难以在侵权法上得到证成。
第二,可解释性(Interpretability)
。通常,当人类驾驶者造成交通事故,诉讼双方通过举证、质证等程序性手段,完全可以还原并查明事故发生的过程,从而决定人类驾驶者是否履行了合理的注意义务。事故的可解释性使得因传统的交通事故而产生的法律纠纷可以按照既有法律框架得到有效解决。但是,现代人工智能系统越来越成为一个“黑箱”,所有决策都存在于这个“黑箱”中,自动驾驶汽车等智能机器人也不例外。
而且,虽然学习算法可能是公开和透明的,但它产生的模型可能不是,因为机器学习模型的内部决策逻辑并不总是可以被理解的,即使对于程序员也是如此。因此,即使设计者可能也无从知晓系统如何进行决策,更别提普通公众了。行为和决策的不透明性和不可解释性带来的直接结果就是,当自动驾驶汽车造成交通事故时,人们将很难查明事故背后的原因。即使法律要求算法必须公开、透明,或者可以在法庭上对智能机器人的算法系统及其决策进行交叉询问,当事人也会面临技术性障碍,在成本上并不经济。此时,谁来承担法律责任,将成为一个大大的问题。
第三,因果关系(Causality)
。一方面,如前所述,人工智能系统的一些新特征使得事故的可解释性大打折扣,带来归因难题;另一方面,由于自动驾驶汽车等智能机器人自带学习能力和适应能力,其“后天的”(区别于“先天的”系统设计和训练)学习和经历可能成为此类系统造成的任何损害的一个替代原因(Superseding Cause),足以使侵权行为事实上的行动者免于承担责任。
替代原因之所以可能出现,是因为一个能够自主学习的人工智能系统的行为部分依靠其后天的经历,即使最细心的设计者、编程者以及制造者都没有办法控制或者预期人工智能系统在脱离他们之后将会经历些什么。
因此,当自动驾驶汽车等智能机器人发生事故、造成损害,而事故本身又难以解释或者不能合理追溯到设计缺陷或者制造缺陷,或者损害是因人工智能系统难以为设计者所预测到的特殊经历造成的,此时,让设计者承担责任将会导致不公平和非正义,但这样却会导致被侵权人难以获得赔偿。于是,法院面临的挑战是,为了保证被侵权人能够得到赔偿,就必须解决人工智能系统的可解释性、可预见性以及因果关系等问题。
(三)替代责任的适用可能性
如果智能机器人实际上“代理或者代表”某个法律主体从事行为或者进行决策,那么可以比照父母对未成年人子女的责任或者说监护人对被监护人的责任,或者雇主对雇员的责任,让部署智能机器人的人承担替代责任。其实在合同领域,智能软件、程序化交易、智能合约等现象就给合同责任带来挑战,引起学界讨论,但是对于算法和程序做出的交易,各国一般将智能软件看作是通信方式,而非认为智能软件和部署智能软件的人之间存在代理关系或者雇佣关系。因此,借助智能软件形成的所有合同法律关系都归属于部署智能软件的人,由其享有合同权利并承担合同义务。
按照这一思路,在某些情况下,可以让部署智能机器人的人承担替代责任。比如,如果一个公司利用无人机送货,或者利用自动驾驶出租车运送乘客,或者利用服务机器人提供家政、酒店、外卖等领域的服务,那么其就必须对智能机器人的行为负责。但是,如果我们类比雇主对雇员的责任,雇主的替代责任以雇员在从事雇佣活动中造成的损害为限,不对雇员的职务范围以外的或者非职务的加害行为负责,那么如何确定部署智能机器人的人对智能机器人的责任限度和范围,将是法律必须回应的一个问题。更进一步,如果将智能机器人看作是事实上的雇员,为了明确雇主的责任,就必须提出判断智能机器人的职务行为和非职务行为的标准。本文仅提出这么一种可能性,这里不做进一步探讨。
面对人工智能的快速发展,一些国家开始探索相关立法和监管。