不经意间,人工智能(AI)成为2016年主流话题之一。有关技术进步的报道,充斥着媒体。AI将深刻影响生活、社会、经济、法律、政治、全球格局等诸多方面。AI应用的拓展和加深,使得AI伦理问题日益突出,成为关注焦点。
美国、英国等开始重视AI伦理问题。今年以来,美国政府连发三份AI报告,其中提出了美国国家人工智能战略,其中包括理解并解决潜在的法律、道德、社会等影响。英国政府连发二份AI报告,呼吁重视并研究AI伦理与法律问题。
《麻省理工科技评论》评选的2016年最佳图书包括以AI伦理为主题的著作:《数学武器:大数据如何加剧不平等、威胁民主》和《发明伦理:科技和人类未来》。诸如技术性失业、致命性自主武器、算法公平、道德判断、价值一致性等AI伦理问题需要获得深入研究。
2016年12月,
标准制定组织IEEE发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》
,旨在鼓励科技人员在AI研发过程中,优先考虑伦理问题。这份文件由专门负责研究人工智能和自主系统中的伦理问题的IEEE全球计划下属各委员会共同完成。这些委员会由人工智能、伦理学、政治学、法学、哲学等相关领域的100多位专家组成。这份文件包括一般原则、伦理、方法论、通用人工智能(AGI)和超级人工智能(ASI)的安全与福祉、个人数据、自主武器系统、经济/人道主义问题、法律等八大部分,并就这些问题提出了具体建议。
一般原则涉及高层次伦理问题,适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。
人类利益原则要求考虑,如何确保AI/AS不侵犯人权。为了实现AI/AS尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对AI/AS的信任;探索将法律义务“翻译为”充分理解的政策和技术考虑事项的方法论。
责任原则涉及,如何确保AI/AS是可以被问责的。为了解决过错问题,避免公众困惑,AI系统必须在程序层面具有可责性,证明其为什么以特定方式运作。
第一,立法机构/法院应当阐明AI系统开发和部署过程中的职责、过错、责任、可责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;
第二,AI设计者和开发者在必要时考虑使用群体的文化规范的多样性;
第三,当AI及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;
第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。
透明性原则意味着,自主系统的运作必须是透明的。AI/AS是透明的意味着,人们能够发现其如何以及为何做出特定决定。AI的不透明性,加上AI开发的去中心化模式,加重了责任确定和责任分配的难度。
透明性对每个利益相关方都意味重大。
第一,对使用者,透明性可以增进信任,让其知道AI系统可以做什么及其这样做的原因;
第二,对AI/AS批准和认证机构,透明性则确保AI系统可以接受审查;
第三,如果发生事故,透明性有助于事故调查人员查明事故原因;
第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,做出决定;
第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。
因此,需要制定透明性标准,阐明可测量的、可测试的透明性程度。但对于不同的利益相关方,透明性的具体要求是不同的。
教育和意识原则涉及,如何扩大AI/AS技术的好处,最小化其被滥用的风险。在AI/AS越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕AI/AS被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。
二、伦理问题:如何将人类规范和道德价值嵌入AI系统
由于AI系统在做决定、操纵其所处环境等方面越来越具有自主性,让其采纳、学习并遵守其所服务的社会和团体的规范和价值,是至关重要的。可以分三步来实现将价值嵌入AI系统的目的:
第一,识别特定社会或团体的规范和价值;
第二,将这些规范和价值编写进AI系统;
第三,评估被写进AI系统的规范和价值的有效性,即其是否和现实的规范和价值相一致、相兼容。
(一)
为AI系统识别并确定规范和价值
首先,应当明确需要嵌入AI系统的规范和价值是什么。
法律规范一般是成文的、形式化的,容易得到确认。但社会和道德规范比较难确认,它们体现在行为、语言、习俗、文化符号、手工艺品等中。更进一步,规范和价值不是普世的,需要嵌入AI的价值应当是特定社会或团体中针对特定任务的一套规范。
其次,道德过载(Moral Overload)问题。
AI系统一般受到多种规范和价值约束,诸如法律要求、金钱利益、社会和道德价值等,它们彼此之间可能发生冲突。在这些情况下,哪些价值应当被置于最优先的地位?
第一,优先考虑广大利益相关方群体共同分享的价值体系;
第二,在AI研发阶段确定价值位阶时,需要有清晰、明确的正当理由;
第三,在不同情境下或随着时间的推移,价值位阶可能发生变化,技术应当反映这一变化。
第三,数据或算法歧视问题。
AI系统可能有意或无意地造成对特定使用者的歧视。一方面,要承认AI系统很容易具有内在歧视,意识到这些歧视的潜在来源,并采取更加包容的设计原则;强烈鼓励在整个工程阶段,从设计到执行到测试再到市场推广,尽可能具有广泛的包容性,包容所有预期的利益相关方。另一方面,在解决价值冲突时保持透明性,尤其需要考虑脆弱、易被忽视的人群(儿童、老年人、罪犯、少数民族、贫困人群、残障人群等)的利益;在设计过程中,采取跨学科的路径,让相关专家或顾问团体参与其中。
(二)
将规范和价值嵌入AI系统
在规范体系得到确认之后,如何将其内置到计算机结构中,是一个问题。虽然相关研究一直在持续,这些研究领域包括机器道德(Machine Morality)、机器伦理学(Machine Ethics)、道德机器(Moral Machine)、价值一致论(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好AI等,但开发能够意识到并理解人类规范和价值的计算机系统,并让其在做决策时考虑这些问题,一直困扰着人们。当前主要存在两种路径:自上而下的路径和自下而上的路径。这一领域的研究需要加强。
(三)
评估AI系统的规范和价值是否和人类的相符
需要对嵌入AI系统的规范和价值进行评估,以确定其是否和现实中的规范体系相一致,而这需要评估标准。评估标准包括机器规范和人类规范的兼容性、AI经过批准、AI信任等。
需要在人类和AI之间建立信任。这涉及两个层面。一方面,就使用者而言,AI系统的透明性和可验证性对于建立信任是必要的;当然,信任是人类-机器交互中的一个动态变量,可能随着时间推移而发生变化。另一方面,就第三方评估而言,第一,为了促进监管者、调查者等第三方对系统整体的评估,设计者、开发者应当日常记录对系统做出的改变,高度可追溯的系统应具有一个类似飞机上的黑匣子的模型,记录并帮助诊断系统的所有改变和行为;第二,监管者连同使用者、开发者、设计者可以一起界定最小程度的价值一致性和相符性标准,以及评估AI可信赖性的标准。
人工智能应当符合人类价值观,服务于人类,服务于人类社会和经济的发展。以人类价值观为导向的方法论是人工智能设计的核心,其中最重要的是对人权的保护。
(一)
跨学科的教育和研究
将应用伦理学整合到教育和研究中,解决AI/AS的问题,需要跨学科的路径,需要融合人文学科、社会学科、科学和工程学等。首先,在大学教育阶段,伦理学需要成为计算机相关专业的一个核心课程,并建立跨文化、跨学科的课程体系。其次,为了研究AI/AS的特有问题,需要建立跨学科、跨文化的教育模型,在学术界和产业界,以多学科合作的模式塑造技术创新的未来。最后,需要区别嵌入AI设计中的不同文化价值,为了避免文化歧视,不能仅仅考虑西方影响下的伦理基础,其他文化的伦理/道德、宗教、政治传统也需要加以考虑。
(二)
商业实践与人工智能
首先,产业界缺乏基于价值和伦理文化的实践。
业界急切想要开发AI/AS并从中赚钱,却甚少考虑在其开发、使用过程中如何建立伦理系统和实践。
其次,缺乏价值层面的领导角色。
创新团队和工程师在AI设计过程中,得不到如何以及尊重什么人类价值的指引。
再次,缺乏提出伦理问题的赋权。
在一个组织内,工程师和设计团队不能就其设计或设计方案提出伦理问题。需要新形式的行为准则,以便于个体可以在充分信任的环境中,自由谈论、分享其见解和看法。
第四,科技圈缺乏主人翁意识和责任心。
科技圈往往不认为关注伦理问题是其职责,这些问题一般由公众、法律圈和社会科学圈提出。工程科学中的多学科伦理委员会应当常态化,负责跟进研究和产品中的伦理问题及其影响。
最后,需要纳入利益相关者和从业者。
从业者和AI、机器人一道工作,可以表达其诉求,也可以提供洞见。
(三)
缺乏透明性
AI/AS制造过程缺乏透明度,给落实和监督机器伦理提出了挑战。
首先,AI的限制和假设通常未被合理记录,
什么数据被处理以及如何处理也是不明确的。记录文档应满足可被审计、容易获取、有意义、可读取等要求。
其次,算法缺乏监督。
AI系统背后的算法是不透明的,这导致终端用户不知道算法是如何得出结论的。一方面,需要建立监督AI制造过程的标准,避免给终端用户带来伤害;另一方面,政策制定者可以限制计算机推理,以免其过分复杂,造成人们难以理解的局面。
再次,缺乏独立的审查机构。
需要引入独立的审查机构来给出指导意见,评估人工智能的安全性及其是否符合道德标准。
最后,“黑箱”软件的使用问题。
深度机器学习过程是“黑箱”软件的一个重要来源。科技人员必须承认并评估“黑箱”软件中的伦理风险,并且在使用“黑箱”软件服务或组件过程中,特别关注伦理问题。
首先,随着AI系统越来越强大,其不可以测的或非故意的行为将变得越来越危险。
为此,需要研究具体的人工智能安全问题;确保人工智能系统的透明度;开发安全、可靠的环境来开发、测试具有潜在安全风险的AI系统;在输入错误、环境改变等情况下,确保AI系统平稳失效;确保AI系统可以被操作者关闭或改进。
其次,改进安全性以适应未来更加多才多艺的AI系统可能面临困难。
AI研发团队在开发系统时,需要提前采取相应的安全防范措施。
第三,AI研发者未来会面临更加复杂的伦理和技术安全问题。
为了应对这一问题,可以考虑设立伦理审查委员会来支持和审查研发者的工作项目。目前、Google DeepMind、Lucid AI等机构已经设立了伦理审查委员会。该审查委员会由具有不同知识背景和经验的专家组成,在审查时需要参考一定的行业标准,并最大限度地考虑安全和伦理问题。
最后,人工智能系统未来会影响世界的农业和工业革命。
人工智能系统的技术成功不仅意味着巨大的商业价值,其对于世界范围内的政治格局也将产生深远影响。
数据不对称是个人信息保护的一个重大道德困境。在算法时代,AI系统对个人数据的使用不断增强。为了解决不对称问题,需要完善个人信息保护政策。
(一)
个人数据定义
首先,个人数据应该包括对个体身份的定义和说明,表现其独特的偏好与价值。个体应该能够获取充分可信的身份验证资源去证明、核实和广播其身份信息。
其次,个人识别信息应被定义为任何能够合理关联到一个个体的相关数据,不管是实在的、数字的还是虚拟的。个人识别信息应被认定为个人拥有绝对控制权的一项资产(Asset),法律应给予优先保护。
最后,个体对其个人数据应该拥有比外部行为者更大的控制权限。
(二)
重新定义个人数据获取与知情同意
第一,需要建立实用的、可执行的程序,以便于设计者和开发者可以借助经规划的隐私(Privacy-by-Design)、默认的隐私(Privacy-by-Default)等方法论来保护隐私。
此外,差别化隐私(Differential Privacy)的范式也为开发者和设计者将隐私保护融入其提供的服务中提供了便利。差别化隐私不等同于数据的匿名化。相反,差别化隐私利用哈希(Hashing)、次级抽样、噪声注入等技术使个人信息模糊化。