从早期真空管计算机到目前每秒运行数亿次浮点计算(exaflop)的超级计算机,人工智能技术已然取得了巨大进步。其中,最引人瞩目的是,算法设计和分析技术的进步使人工智能系统能够从经验中学习,使其具有了创造性与自主执行任务的能力。一方面,人工智能的表现令人咋舌;另一方面,人工智能的广泛应用也已经对传统法律领域产生冲击。目前,来自欧洲、美国和亚洲的法律学者,正在就如何规范人工智能展开一场意义深远的探讨。
让我们来回顾一下人工智能的起源。1956年夏天,一群顶尖科学家参加了达特茅斯(Dartmouth)夏季人工智能研究项目,未来他们也成了人工智能领域的先驱。这些伟大的科学家包括马文·明斯基(Marvin Minsky)、约翰·麦卡锡(John McCarthy)、克劳德·香农(Claude Shannon)、艾伦·纽威尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)。达特茅斯项目(the Dartmouth project)持续了6~8周,其本质上是一个头脑风暴会议,专家们在会议中热烈讨论了如何创造出像人类一样执行任务的人工智能。有趣的是,这个项目的报告写于60多年前,今天仍在影响着人工智能的发展:
这项研究的基础是这样一种猜想:原则上,学习的每一个方面或智能的任何特征都可以被精确地描述,以至于可以用机器来模拟它。我们将努力探索如何使机器使用语言,形成抽象概念,解决目前留给人类的各种问题,以及改进(机器)自身。我们认为,若一些卓越的科学家能够聚集在一起共同探讨,只需要一个夏天的时间,这些问题中的一个或多个就能取得重大进展。
虽然一个夏天的时间并不足以在人工智能方面谋取重大进展,但60年后的今天,人工智能显然已经“成熟”。这并不是说人工智能发展水平已经达到达特茅斯会议与会者预测的程度—达到人类一般的智能水平;但在诸多狭窄领域,现在人工智能优于人类专家的表现。
就法律角度而言,人工智能引发一个有趣的结果,人类在某种情形下开始完全脱离系统的决策闭环,以至于我们难以洞悉人工智能解决问题的方案。得益于从经验和互联网数据中学习,“新形式”的人工智能(“new forms”of AI)甚至开始编写自己的算法,重要的是,它们在行动中越来越独立于人类。人工智能水平的提高,对传统上将人类视为法律行为者的既定法律领域提出了重大挑战。
事实上,由于人工智能日益增强的自主性和智能性,人工智能提出了一些值得法律学者和法官考虑的重要问题,例如,当人工智能控制一个系统(机器人)时,如果人类受到伤害或财产受到损害,而系统中没有人对此负责,会发生什么?追究“某人”的责任是分配刑事责任或侵权责任的基础,然而目前版本的人工智能缺乏法律人格地位,我们无法追究其行为的法律责任。
我们惊讶地发现,人工智能领域的顶尖学者对“人工智能”的定义仍难以达成共识,充满了争议。就法律而言,这是一个重要的发现,因为监管机构必须能够界定一项技术,才能对其进行有效监管。
人们可以问:人工智能是代码、算法,还是生成创造性的和新颖的问题解决方案的分析技术?人工智能是操作系统的架构、无线传输协议,还是处理信息的半导体芯片的设计?或者,人工智能是否仅仅是像人类一样解决问题的行为,而不考虑决策技术、计算机体系结构(如冯·诺依曼体系结构)或使用的无线协议?使人工智能监管的复杂性进一步复杂化的是,人工智能种类繁多,有些监管难度小,有些监管难度大。这将要求立法者在为人工智能制定法规时,亟须完成为各种形式的人工智能进行定义的艰巨任务。
人们认识到,虽然接近人类智能水平的机器引发的法律问题很复杂,但更难的是,未来的人工智能形式可能与人类截然不同,这样的系统的目标和愿望可能对人类来说是全然陌生的,甚至以我们的智力水平根本无法理解。很明显,随着人工智能的不断发展和更加自主地运作,人类必须决定我们与智能实体互动的未来是怎样的。人工智能最终会成为人类生存的威胁,或是成为解决饥饿、战争或疾病等重大生存威胁的合作伙伴,还是我们会被一个拥有自身利益诉求的超级智能藐视?当然,情况也许各异,我们需要不同的法律方法来保护所涉各方的权利。
无论何种形式的人工智能,其在社会中的作用及与人类个体的关系都需要加以规范。然而,尽管人工智能涉及社会的所有方面,但迄今为止,还没有一个主流的人工智能监管方案。事实上,我们正处于探讨的初期(例如,关于无人机、自动驾驶汽车和机器人),其重点在于如何规范人工智能系统,因为这些系统具有智能和自主权。
为推进这一探索,新兴法律和人工智能领域的主要学者合作撰写了《人工智能法律指南》一书,全书共25章。本书也证明了自1956年达特茅斯第一次人工智能会议以来,我们已经取得了多么显著的进步。正如本书所详述的,反垄断法、刑法、公司法、宪法和其他法律领域正受到越来越聪明和自主的人工智能的挑战。
毫无疑问,随着人工智能技术的不断发展,更多的法律问题将被提出来。这需要新的法律和监管方案,以达到鼓励人工智能领域创新与保护人类权利的双重目的。最终,我们甚至可能必须考虑人工智能实体的权利,尤其是授予人工智能法人地位(这将解决一些问题,但会引发其他问题)。
人工智能不会仅仅“满足于”停留在任何地方辖区或国家地理边界内。为了有效地应对,对人工智能的监管方案也必须是国际性的。出于这个原因,这本书的编写者来自美国、欧盟和亚洲,全面介绍如何将现有法律应用于人工智能发展的思路,以及从全球的高度来讨论如何规范人工智能。
本书的内容也表明,随着人工智能变得日益智能和自主,为人类和那些被授予法律拟制人格的实体建立的许多法律领域开始变得密切相关。就好像人工智能变得越“像人”,人类的法律就越受影响。但是,如果考虑一下监管人类行为的法律体系异常庞大的现状,可以预见人工智能的监管将非常困难。例如,考察普通法(common law)或教会法(canon law),虽然这两种法律体系都花了几个世纪才发展起来,但在某些方面,人工智能的能力正在呈指数级增长,这意味着规范人工智能的时间框架只有几十年甚至更短。
人工智能将继续发展,并将在未来产生令人惊叹的智能实体(部分人工智能将有物理载体)。但当这种情况发生时,人工智能是否会继续作为工具为人类所使用?还是人工智能将会超过我们理解的目标、抱负和决策的能力?
不管怎样,法律在我们的未来如何发展,这将对我们最终如何与一个比我们更聪明的实体共同“生活”起到关键的作用。肯定会有越来越聪明和自主的实体参与我们的未来,为了应对人工智能的规范挑战,一些法律制度已经采取了放松规制和法律试验的做法。
例如,在过去的15年里,日本政府通过建立人工智能的测试和开发特区(Tokku)来解决这些挑战。在自动驾驶汽车领域,一些欧盟国家支持类似的尝试:瑞典赞助了世界上第一个大规模的自动驾驶试点项目,在这个项目中,自动驾驶汽车在日常驾驶条件下使用公共道路。德国也允许在高速公路上进行一些不同程度的自动化测试,例如,奥迪在英戈尔斯塔特和纽伦堡(Ingolstadt and Nuremberg)之间的A9高速公路上进行自动驾驶汽车测试。美国是自动驾驶汽车研发和管理的主要试验地。
正如欧洲议会法律事务委员会在2016年向欧盟委员会提交的关于机器人民法规则的建议中所强调的,“在真实场景中测试机器人,可能会带来风险,但这对它们在纯实验室阶段之外的技术发展,具有至关重要的意义”。
在合法的、不受管制的特别区域来进行试验,其目的是适当地解决新一代人工智能系统引发的深层次问题,往往可以得到进一步的法律技术和机制的启发。实验性联邦制和技术创新治理,如实施原则,确实可以加深我们对人工智能系统在各种环境下如何反映和满足人类需求的理解。
在第一种情况下,实验性联邦制指通过法律制度之间的有益竞争来丰富治理社会和个人行为的规则。美国自动驾驶汽车领域正在进行类似实践。撰写本书期间,美国已有7个州为这种技术分别制定了法律。相同的政策将尽其所能地与欧盟数据保护领域的法规一道发挥作用。关于实施中立的原则,立法者可以制定特定的AI技术法规,但应保持不偏不倚的态度。对人工智能的监管将极具挑战性,我们的目标是,运用法律变革规则来创造、修改或消灭法律基本规则,以便收集经验数据和足够的知识,为一些关键问题作出理性决策。
重要的是,我们必须提高对人工智能系统在各种情况下如何反映和满足人类需求的理解。我们应该意识到,人工智能系统可能失控并引发风险和威胁,需时刻保持警惕。新的理论框架应该允许我们更好地去理解新兴的系统,避免不当行为;同时,新、旧监管部门应该协调一些管理职责,这往往是人工智能研究的一个巨大障碍,如出于安全原因的公共授权、处理和使用个人数据的正式同意、通过保险模型和认证系统分配风险的机制等。通过利用法律规则的变化,如法律实验的形式、实验性联邦制、技术治理、风险评估,更重要的是,通过对法律的基本概念、标准和原则的调整,使之在宪法、刑法和商法等领域变得更加清晰。
然而,就人工智能和法律结合的最初形式—“法律自动化”而言,德国著名学者威廉·莱布尼茨(Wilhelm Leibniz)曾经说过,“每个人的思维都有一个视野,这与他现在的智力有关,而不是与他未来的智力有关”。一旦我们承认人工智能机器能够在所有相关方面作出与人类相似的自主决定,下一步就是承认许多法律概念(意图、过失、意识和自我意识,甚至法人)将会彻底改变。前路迢迢,广泛的学术探讨给予我们认真对待挑战的机会,我们终将思考未来应以何种形态到来。基于此,《人工智能法律指南》是提出法律和人工智能思考框架的重要一步,诸多前沿领域的卓越学者将在此深度探索法律和人工智能的未来发展方向。
伍德罗·巴菲尔德
乌戈·帕加洛,都灵