人工智能技术和应用的方式一直在快速发展,尤其是一些人工智能模型自主选择性的程度不断提升,出现了部分自主的系统,最典型的是自动驾驶系统。毫无疑问,人工智能的应用需要适用恰当的伦理规范和准则,这些准则主要是公平性、安全性、透明性、可解释性。公平性要求其尊重个人权利,维护公平正义,不得在人们之间出于身份、族群、年龄、性别等理由而制造人为的歧视,对所有人要一视同仁,公平对待。安全性、透明性和可解释性要求系统必须是安全可靠的,其算法所依据的原则、程序作出选择的过程应当是透明的,完全可以解释的,整个事态发展的过程应当可以找出具体明确的因果联系,这样,在追究伦理责任时才是可以解释和核查的。具体而言,人工智能应用的伦理标准在实际事态发展中应当是可验证的。
对于人工智能的应用,需要施以可验证的伦理标准。这些应用类型多样,因而需要先分类验证。有些需要验证其与伦理无关,有些则需要证明其与伦理相关,并且能够通过伦理的考验。首先,要求模型训练没有预设对人的偏见,不针对种族、性别和年龄等特性设置歧视或特权。例如,一种用于人的盗窃行为的识别系统,其判定行为的依据只能依靠对相关人员的行为特征的客观分析,而不是根据其外形和肤色的族群特性、性别等非伦理因素。
其次,需要有一套伦理验证的程序和流程,以便确保相关的应用符合伦理规范。这适用于多种人工智能产品的应用。典型的例子是自动驾驶,目前特斯拉等公司的电动汽车已经可以实现自动驾驶,包括中国在内的一些城市的公交车等类车辆也可以做到自动驾驶。汽车可以按照设定的导航路线,自动处理路途中的各种情境,包括瞬时意外情况,驶达预定的目的地。这就为针对路上发生的状况进行决策提出了伦理验证和规范的问题。为此,人们把自动驾驶一类人工智能产品的伦理当作其性能的一部分,在模拟的环境中充分地测试和验证其性能,并以科学的方法给出综合评估。这就需要制定核准伦理的标准,以此来核准和验证相关的自动驾驶单元,只有获得认证的单元才能进行自主的伦理决策。这种验证程序是在各种极端情境下,对自动驾驶的感知、规划和决策模块进行有针对性的测试,找出错误(如撞车事故)发生和扩散的因果链条,以确定最终的出错原因。
伦理决策的验证核准最关键的一点在于,它必须是可解释的,即能够确切地说明伦理决策发生的因果关联。可解释性揭示了从观测到决策可见的完整过程,包括清楚地表明当中如何调用知识,如何进行推理。而且,需要根据大量的随机试验,在现实和模拟的世界中通过因果推断来说明人工智能单元的伦理决策不存在问题。由此可见,伦理核准是一种特殊的性能测试,而考题设计是试验的关键所在。
这里分析一个寻找并确认错误来源的案例。2018年3月18日傍晚,在美国亚利桑那州的腾皮市,一名白人女性在推着自行车横穿马路时被一辆优步(Uber)自动驾驶测试车所撞击,这是自动驾驶汽车撞死行人的首个案例。行车记录显示,碰撞前6秒车速为69千米/小时,车载毫米波雷达和激光雷达都检测到了前方有物体。在碰撞前1.3秒,系统才决定进入紧急制动状态,但需要1秒来执行。碰撞时速度为63千米/小时,减速得不多。这辆SUV自动驾驶汽车犯了两大致命错误,一是在前4秒内,自动驾驶系统没有作出需要紧急制动的判断;二是识别系统出现了自洽性问题,即它的识别结果不统一,一会儿是“未知物体”,一会儿是“车辆”,一会儿是“自行车”。如果确定是自行车,那就应该立即作出紧急刹车的决定,因为在道路当中的自行车肯定是有人在旁边,无论是骑行还是推行。但是,自驾车没有及时识别出自行车而发出急刹车的指令。因为当识别为“自行车”时,即使自洽性有问题,也要紧急制动或者转向。在追究造成这场悲剧的法律责任时,亚利桑那州检察官于2019年3月裁定,测试此自动驾驶系统的优步公司免于刑事责任,但测试时坐在驾驶座上的驾驶人则被指控犯有过失致人死命罪。相关的公司暂时停止了自动驾驶的测试,但一段时间以后又恢复了测试。美国的交通安全委员会也作出了一系列的安全指令。当然,自动驾驶技术还在发展中,这个悲剧使得研究者认识到伦理设定在智能系统决策中的重要性,认为它必须成为模型可解释性的一部分,确保任何错误都可以被溯源。
在相当一段时间内,自动驾驶汽车的驾驶座位上都得有一名驾驶员,由其本人在自驾系统的运作中作出最后的决定,以便在出现紧急情况时及时地转向或刹车,并且在汽车出事时承担最终的法律责任。但是,随着自动驾驶技术的进一步发展,包括大量的行驶数据输入系统帮助其进行驾驶决策,自驾技术也日益成熟。这也使得智能自驾系统的伦理规范的设置更加重要。当自动驾驶成为道路上的主要驾驶方式时,该系统将会承担主要的伦理和法律责任,尽管最终责任归属于设计和制造整个智能驾驶系统的人。系统在旅途中驾驶车辆时会遇到各种非预先设计的意外事件,会面临像真人驾驶时遇到的伦理选择的难题。比如美国哲学家桑德尔在讨论公正问题时所设想的“电车驾驶员”伦理难题。车辆在道路上遇到刹车失灵的意外情况,在路的尽头有5名工人在干活,如果任由电车向前行驶,则此五人必死无疑。但在前面的分叉处只有一名工人在干活,方向盘还可以用的电车是否可以选择此条分叉,以牺牲一人而拯救五人?类似的伦理难题可以举出许多,虽然是不常见的极端的特殊情况,却是人或完全自主驾驶的汽车有可能面临的伦理难题。该伦理难题要人回答,可否在特殊情况下为了拯救数人而牺牲一人。这些难题的解答,依赖于人持有的根本价值观和信奉的公平正义原则。比如功利主义理论以人们的幸福总量的增加为主要标准,因而牺牲个人以拯救数人是可取的。义务论或权利论则难以接受这样的原则。对自动驾驶系统也需要设定人所接受的伦理原则或准则,用作实际进行选择时的伦理依据。
随着人工智能的迅速发展和广泛应用,各国都在为其伦理治理制定相应的标准、政策法规和立法。这已经成为各国政府的共识。全球至少已有60多个国家制定和实施了人工智能治理政策。比如英国出台了历史上首个关于机器人伦理的设计标准——《机器人和机器系统的伦理设计和应用指南》。英国金融稳定委员会(FBS)制定了人工智能和机器学习在金融服务领域的应用规范,强调可靠性问责制、透明度、公平性以及道德标准等。欧盟先后出台了《欧盟人工智能法案》《可信AI伦理指南》《算法责任与透明治理框架》等指导性文件,期望通过高标准的立法和监管来重塑全球数字发展模式。其中,欧洲议会于2023年6月14日通过的《欧盟人工智能法案》的决议标志着欧洲在人工智能安全方面制定了重要的指导原则和实施步骤,为未来的人工智能应用提供了法律框架,并在全球范围内树立了新的监管标准。
微软、谷歌等著名科技公司在人工智能伦理治理方面也作出了积极的努力,设置了专门的机构来负责人工智能规则制定、案例研究、落地监督等,并研发了一系列技术解决方案。谷歌从各方面规定了人工智能设计、使用的原则,并承诺愿意随着时间的推移而及时调整这些原则。其所成立的负责任创新中央团队努力落实伦理治理的实践,例如,为避免算法不公平或歧视的恶化,暂停开发与信贷有关的人工智能产品;出于技术问题和政策的考量,拒绝通过面部识别审提案;审慎地进行有关大型语言模型的研究,在正式推出其成果之前,先全面进行人工智能原则审查。
为了提升人工智能的创新性并确保大规模人工智能模式的安全发展,一些立法者提出需要加快其安全立法。如在拥有众多世界一流人工智能公司的加利福尼亚州,其参议员斯各特·维纳(Scott Wiener)为州立法机构起草了一个名为《人工智能安全法案》的提案,要求所有实验室为各个先进的人工智能模型进行安全风险检测,并且在发现安全风险时制定各项透明性的要求。他特别强调,由于人工智能模型近年表现出良好的前景,但也显出公共安全上的严重风险,人工智能要求立法上作出强烈的回应。这也是通过立法来为人工智能设置行业安全标准的一次努力。
尽管对于人工智能的安全可靠性的伦理治理已经成为国际共识,但是,目前还没有制定出相应的全球合作计划,也还未设立一个全球性的人工智能监管机构。一些国家和国家联盟提出过一些建议,如欧盟提出严格的提议,包括主要根据人工智能产品的影响力对其进行分组,比如,癌症检测工具或面部识别工具的监管要比对垃圾电子邮件过滤器的监管更严。英国把人工智能监管纳入现有政府监管机构的职责范围,当事人如果认为自己受到技术歧视,可以向平等委员会寻求帮助,以维护数字正义。中国政府也在进行相关的立法工作,提出了安全、合法、公平、正义的原则方法。
当然,有一些行业协会作出了订立普遍标准的努力。比如具有普遍代表性的电气电子工程学会(IEEE)发布了《人工智能设计的伦理准则》,这是一个全球性的行业协会就人工智能的伦理准则作出的权威声明。2017年12月发布的该准则第二版,系统地论述了人工智能伦理的基本准则,开头即指出:“随着自主和智能系统的应用和影响无处不在,我们需要建立社会与政策方面的指南,从而确保这些系统以人为本,并服务于人类价值和伦理准则。为了能够以积极的、非教条的方式推动自主与智能系统的发展,我们科技界需要加强自我反思,需要围绕我们的想象、我们明确或隐含的价值观、我们的机构、符号和表征开展公开和诚实的讨论。”为此,学会准则提出了合乎伦理地设计、开发和应用这些技术,应遵循以下一般原则:人权,即确保它们不侵犯国际公认的人权;福祉,即在它们的设计和使用中优先考虑人类福祉的指标;问责,即确保它们的设计者和操作者负责任且可问责;透明,即确保它们以透明的方式运行;慎用,即将滥用的风险降到最低。