专栏名称: 腾讯研究院
【腾讯研究院 ★ Tencent Research Institute】 网聚智慧,连接世界!网罗互联网前沿理念、传递互联网发展声音、汇集互联网研究成果、推动互联网法治进程。
目录
相关文章推荐
新浪科技  ·  #华为MateX6开启预订#,你会考虑购买折 ... ·  5 天前  
硅星人Pro  ·  所有AI应用的尽头,是MBTI? ·  1 周前  
51好读  ›  专栏  ›  腾讯研究院

人工智能各国战略解读系列之六《英国人工智能的未来监管措施与目标概述》

腾讯研究院  · 公众号  · 科技媒体  · 2016-12-29 17:53

正文

中国信息通信研究院与腾讯研究院AI联合课题组

作者:Danit Gal  腾讯研究院科技政策分析师

译者:孙   那  腾讯研究院研究员、博士后

            李金磊  腾讯研究院助理研究员



人工智能以及机器人技术的发展带来了新的科学技术革命。然而科技的进步带来的不仅仅是生产力水平的提高,随之而来的还有新的伦理、法律与社会问题,需要公众与政府共同应对。作为在人工智能道德标准及政府监管研究领域的领先者,英国发布的《机器人技术和人工智能》报告,侧重阐述了英国将会如何规范机器人技术与人工智能系统的发展,以及如何应对其发展带来的伦理道德、法律及社会问题。这对于我们共同探讨和思考如何破解人工智能的伦理道德及法律难题无疑是冬夜里的“天狼星”。




 一、概述


1

简介

为了对脱离欧盟做准备,英国政府正在着手构建和巩固本国独特的科技监管体制,并且将人工智能系统和机器人的发展、部署和使用作为重点领域。这个行业对于英国加强其在全球社会经济、科技以及知识领域的领先地位至关重要,同时与英国政府的工业发展战略相一致,即英国在2013年挑选出“机器人技术及自治化系统(robotics and autonomous systems(RAS))”作为其“八项伟大的科技”计划的一部分,并且宣布英国要力争成为第四次工业革命的全球领导者。[1]


2

监管重点

为了应对人工智能科技越来越多的融入其他科技应用的大趋势,英国下议院的科学和技术委员会(The House of Commons’ Science and Technology Committee)在2016年的10月发布了一份关于人工智能和机器人技术的报告。报告作者认为英国视自己为机器人技术和人工智能系统的道德标准研究领域的全球领导者,并且认为了英国应该将这一领域的领导者地位扩展至人工智能监管领域。英国这一目标不是毫无根据的,尽管现在大部分的机器人还停留在机械自动化而非智能自动化阶段,自动化系统已经吸引了越来越多的商业、学术以及公共领域的注意力。


报告召集各种各样的机器人技术与人工智能系统领域的专家和从业者,探讨了拥有先进学习能力的自动化系统的发展与应用,及其所带来的一系列特殊的道德上、实践上以及监管上的挑战。鉴于科技进步以及随之而来的挑战,报告呼吁政府监管的介入和领导体制的建立,保证这些先进科技能够融入社会并且有益于经济。在报告看来,通过积极响应并且负责任的监管措施,可以而且能够达到这一目标。


在英国决心成为一个在机器人技术与智能自动化领域的全球领导者以及重要的科技研发中心的道路上,英国政府希望采用一种适应性更强的监管办法,彰显跨部门合作、合理指引和制度化的公共讨论的重要性。这一点在英国政府的科学办公室(Government’s Office of Science)关于人工智能给决策带来的机会与挑战的报告中,更加明显。考虑到政府总是落后于工业进步、学术研究和不断增长的公共关注,在政府决策机制中引入人工智能的做法看起来是十分恰当的。将人工智能科技引入到对其自身的监管之中的做法,制造了了非常有趣的关注点,在为社会创造利益的同时,也带来了新的伦理、法律、社会问题。


3

未来展望

随着未来英国针对机器人技术与自动化系统的专门委员会的建立和人工智能在决策系统中应用的增长,英国期望支撑其在机器人技术和自动化系统发展与应用方面的投资,保持并加强在人工智能知识与监管领域的领导者地位,并积极寻求相关领域的领导者地位。尽管提议的监管办法距离最终完成还有很长的路要走,但是对于那些怀有相似或者相关意见的人来说,仍然是非常有价值的资源。



 二、英国下议院科学和技术委员会关于机器人技术和人工智能的报告概述[2]


  • 伦理道德和法律方面的重要关注点

报告的这一部分阐述了人工智能的创新发展及其监管带来的潜在的伦理道德与法律挑战,并且尝试寻找能够最大化这些科技进步的社会经济效益,同时最小化其潜在威胁的解决途径。报告强调这一解决途径,在人工智能科技越来越融入社会的情况下,对于建立和保持公众对于政府的信任至关重要。



1

人工智能的安全与管控

这份报告中关于的伦理道德的考虑主要围绕人工智能的安全与管控。特别地,报告主要强调了以下问题:


● 检验和确认:检验和确认需要方法的制度化,保证人工智能按照既定的计算机算法运行,而不出现不必要的行为或者功能上的改变。报告讨论了由于人工智能系统的机器学习能力、适应能力及性能的提高,给测试和量化人工智能系统运作带来的多方面挑战。报告的作者们认为,这些问题目前还没有有效的补救措施,因为现有的传统方法无法统一适用于不断进化发展的人工智能系统的检验和确认。但是,报告提及了谷歌深度思维公司(Google DeepMind)和牛津大学联合发起的人工智能系统的“自我毁灭装置(kill switch)”的研究项目,这个装置能够让人工智能系统处于不间断的人类监管干预之下,而且人工智能机器本身无法逃脱这一监管干预。


● 决策系统的透明化:目前为止,尚不存在一种非常人性化的方式来追踪一个智能机器的决策过程。这一缺失限制了人类给予智能机器做出选择的自由,因为没有完全透明的决策过程来让人类学习或者控制这些人工制造的思考过程。在有关人类生命安全领域的关键决策中,决策透明化的缺失变得更具挑战性,如自动驾驶汽车。而这反过来,可能会导致公众的不信任和消极偏见,造成人工智能系统的应用与实施停滞不前。对于这一点,报告提到了微软公司承诺将提高计算机算法的透明度来满足人类理解和监管的需求。微软公司认为,算法透明能够提高公众对于人工智能的信赖程度,允许人类对人工智能的机器逻辑进行严格的测试。然而,这一制度化测试应当采用的明确和有效的方法,现在仍然不得不得而知。


● 偏见最小化:报告的作者们引用谷歌公司的数码相册软件将深色皮肤的人群标记为大猩猩的例子,表达了对于人工智能系统内置的偏见与歧视的关切。这个例子展示了科技错误如何转变成伤害,进而导致社会不安与仇恨。人工智能机器完全受到其人工设计的结构和学习进程中接收的数据的世界观的影响。在约翰·诺顿(John Naughton)看来,对于笃信科技的中立性并全神贯注于科技功能而非累积的学习材料的设计者来说,这些潜在的歧视,还没有被发现。微软公司的戴维·科普林(Dave Coplin)的言论验证了这一结论,即所有人造的或者基于人类设计的计算机算法都存在这样的偏见。他认为,程序员们在编辑代码指引每个人的生活时,应该充分的认识到其对伦理道德与社会敏感性的影响。最后,报告提到,在即将到来的欧盟《一般数据保护条例》(General Data Protection Regulation)(现已公布)中,将会有针对计算机算法歧视的应对措施,然而该法案的真正实施可能会面临困难。


● 隐私与知情权:在关于谷歌深度思维公司(Google DeepMind)与英国国家健康服务中心(UK National Health Service)开展的广泛合作的新闻报道中,英国民众表达了对于人工智能机器以何种方式进入、存储和使用保密的病人数据的关切。机器学习的核心部件如何处理病人数据需要考虑其诸多道德影响,并依赖于智能机器每天正常的运转。这就意味着人类分享给人工智能系统的数据变得不再私密,同时数据的所有权也成为了一个问题。正因为这些挑战的存在,才需要有效的措施来保证人工智能系统使用的数据被合理的限制、管理和控制,以此来保护隐私权。同时政府应该努力找到一个平衡点,在保护数据安全的情况下又不禁止通过系统化使用这些数据来造福公众。报告指出,为了应对这些问题,英国政府正在和阿兰·图灵研究所(Alan Turing Institute)合作建立一个旨在研究数据科学的“数据伦理委员会”(Councilof Data Ethics)。




● 归责制度与责任承担:关于人工智能责任制度的讨论,主要集中在自动驾驶汽车以及谁应当为自动驾驶汽车发生的故障和事故负责的问题。微软公司的戴维·科普林(Dave Coplin)强调政府监管和干预的重要性,应当建立明确的要求来说明为什么以及如何让人工智能系统的设计者和部署者承担其应有的责任。而这个问题在自动驾驶汽车做出独立智能决策导致损害发生的情况下,将会面临更多的法律难题。在这种情况下,我们无法准确分配司机、自动汽车生产者以及人工智能系统设计公司的法律责任。此外,如何采用立法手段既能阻止损害发生,又能让个案的不幸结果得到救济,同时保证法律的统一与灵活,仍然是一个值得思考的问题。为了应对这些挑战,英国政府发起了一项提案试图解决自动驾驶汽车的法律责任问题。提案内容如下:我们的提案旨在将汽车强制险的适用扩大到产品责任,在驾驶者将汽车控制权完全交给自动驾驶汽车的智能系统时为他们提供保障。而这些驾驶者(或者投保人)需要依靠法院根据现行《消费者保护法》(Consumer Protection Act)的产品责任和普通法下的过失原则的裁判,来确定哪一方应该对事故的发生负有责任。


2

管理:标准与规则

为了妥善应对和监管人工智能进步所带来的各种道德和法律问题,如深度学习机器、自动驾驶汽车的设计与应用,政府应该建立持续的监管制度。报告提到,公司以及研究机构不断要求政府为其提供监管的指导方针和标准,尤其是在广泛传播的创新科技上,让其可以调整本身的行为及未来的理论与实践走向。ABB公司的代表麦克·威尔逊(Mike Wilson)表达了ABB公司对于政府的监管框架无法跟科技进步相协调的担忧。清晰严格的政府监管规则的缺失,造就了越来越明显的监管空白地带,可能会加深公众的信任危机以及阻碍关键的创新技术在不同行业领域的发展与应用。


然而,政府的监管方式应该认真仔细的构造,以防“一刀切”式的监管方式阻碍科技创新以及未来的发展与应用。这一点对于自动驾驶汽车尤其适用,监管的透明化能够让公众和厂商都能做出更明智的决策,也能在此基础上共同影响自动驾驶汽车的未来发展前景。只有这样,英国市场才能更加适合新兴科技的发展,并且在全球范围内保持英国在经济、科技及人文等方面的领导地位。


在公众层面、学术界、产业界、国家以及国际层面,同样存在着致力于制定出人工智能道德指导方针的积极努力。但是,报告明确提到,各个层面之间的信息交流和参与程度,仍然不是很令人满意。同样,令报告的作者感到担忧的是,由谁来监管机器人技术以及自动化系统发展带来的道德和法律影响,现阶段仍不明朗。来自微软公司的意见是呼吁建立一种共享的监管机制,这一机制由联合政府部门、科技行业代表、非政府的学术机构的研究者以及代表最大部分服务消费者的公共利益团体共同组建。


3

鼓励公众对话

这份报告中所收集的证据都在强调鼓励公众参与的重要性,因为只有这样才最有利与促进以人工智能为基础的科技发展。而通过鼓励公众参与可以让公众更好的与人工智能科技互动,了解更多相关信息,从而对于人工智能科技的未来更加充满信心。人工智能这样的管理方式可以跟政府监管转基因食品的方式相比较,后者显然没有能够让公众充分的参与和了解更多信息。加强公众参与另一个方面的好处就是更好的理解和处理人工智能带来的社会问题,例如可以通过辅助智能机器人技术减少紧迫性的问题。


很多的专家都认为在科技领域的政策制定过程中应该有更多的披露措施,这将有利于促进公众的参与,同时了解和关注科技发展带来的社会、道德和法律问题。积极的、负责的政策法规和监管不应该局限于少数专家和利益相关者,而应该听取所有利益相关者的意见。


报告得出结论认为,现在部门式的监管立法为时尚早,但是应该及时采取措施应对机器人技术与自动化系统的兴起和使用对社会各个方面的影响。这些措施的实施,将有利于英国建立公众对于政府的信任,同时促进先进科学技术的更广泛采用。因此,报告重申了其建立专门的机器人技术与自动化系统委员会的建议。该委员会对政府在制定鼓励人工智能发展和应用的监管标准以及如何控制人工智能方面献言献策。委员会的人员构成,将会来自不同的领域和部门,通过开展透明和有益的对话来使多方受益。


4

研究,资金支持,创新

这一部分规定了英国政府制定的总体战略框架,包括:承认与考察英国迄今为止的科技、人文知识、监管领导方面的成就;英国政府的未来目标;以及实现这些目标的具体途径。在考察如何实施该战略是,报告作者指出了机器人技术与自动化系统(以下简称RAS)的科技创新所面临的三大障碍:资金、领导者、技术不足。


● RAS的2020发展战略:报告指出为了提高在机器人技术及自动化系统研究方面的合作和创新,2013年在创新英国(Innovate UK)项目的支持下,成立了一个由学术研究者和产业代表组成的“特殊利益团体”(Special Interest Group (SIG))。该团体在2014年7月发布的一份机器人技术及自治化系统的2020年国家发展战略(RAS 2020 National Strategy),规定了英国的RAS发展目标,即通过英国国内各产业的合作发展为其在机器人技术及自动化系统创新发展上的跨部门合作提供路径支持。而为实现该目标所列的八项建议,对于这份报告来说,值得关注的有:建立集中化的领导制度去引导和监管创新活动;提升各国政府、产业部门和机构之间的国际合作,以此鼓励更进一步的创新并且加强纽带;为公众披露更多的信息以及提升透明度;将英国作为一个全球科技创新和发展的优良投资市场的地位制度化。


RAS的资金:这份报告认识到,从贸易的角度看,从全球来看英国机器人技术的发展与应用仍然十分有限,其2015年安装运输的机器人数量只有中国的3%。作为跟英国政府的对比,韩国政府在过去十年间对于机器人技术的研发投入每年高达1亿美元,而日本政府今年为其辅助机器人技术的研究计划提供了3.5亿美元的资助。从这一点来看,英国机器人技术的发展非常依赖国外资本的投资,正如首相的科学和技术委员会(Prime Minister’s Council for Science and Technology)披露的那样,英国机器人技术研究80%的资金来源于欧盟国家,而英国已经不再是欧盟的一员。但是,这一披露却完全忽视了英国国内每年超过5000万美元的机器人技术研究的基础设施投资,以及每年2500万美元的机器人学术研究资金。


RAS的领导者:报告作者对于英国缺少一个集中化的领导实体来促进机器人技术及自动化系统在英国的发展和应用的这一现实,表达了他们的失望,尽管SIG曾经建议设立这样一个领导实体。领导者的缺位,不仅使得英国难以在RAS上实现连贯与统一的跨部门合作,而且会阻碍科技创新与发展。这还将使得政策制定者在无法正确理解蓬勃发展的科技带来的机会与挑战,进而导致监管空白、市场失灵、与公众不安。


● RAS的技术不足:尽管在RAS及相关领域内对于技术工人的需求正在增长,但是英国却并没有足够受过培训的人力资源来实现其宏大的发展目标。政府在高等教育层面中提倡科技教育的全额奖学金计划,在某种程度上减轻了这一现象。报告作者认为,这一点对于推动人工智能与相关科技的发展和利用国外资金发展本国市场至关重要。尽管如此,英国的大学可能因此受到损害,因为人才被高利润的行业吸走,而且大学可能会被迫改变其研究方向,将自己的关注点从必要的探险式研究转换到更加商业化和有利可图的领域。


5

结论与建议

报告的作者在三个不同的领域提出八项关键结论与建议:

● 教育与技能:政府必须加强在职业培训领域的投资,这样才能让工人获得全新的相关技能,减轻自动化技术以及自动化机器的大规模应用对劳动者就业带来的负面影响,稳定就业市场。这一项同样包括建立适应性的及时培训方案,能够让劳动者跟上最新的科技发展潮流,同时在被迫的职业转换过程中,为他们提供终生的学习机会。报告作者表达了对于政府在这一领域缺乏领导力的失望,同时呼吁尽快颁布国家数字战略,以帮助劳动者更好应对越来越自动化和自主化的市场,同时防止排斥数字化的现象发生。


● 管理的标准与规则:英国政府必须建立适当的机制,准确衡量RAS的发展将会带来的伦理道德、法律以及社会影响,同时保证RAS的发展在商业上的利益,谋求社会效益、以及公众的信任和持久的支持。这份报告中提到的道德挑战,需要政府不间断的监管努力。所以报告的作者建议,在伦敦阿兰·图灵研究所的基础上,建立一个更加多元化的人工智能领导委员会,来监管不断变化的科技实践,以及其所带来的伦理道德、法律和社会影响,并对如何监管他们向英国政府提供建议。报告建议设立的委员会,应该将具有广泛代表性的专家、从业人员、非政府代表和业余人员纳入这一制度化的公共对话平台之中。而且,该委员会还应该与未来成立的数据伦理委员会展开合作。


 研究,资金和创新:现在为止,英国还缺乏连贯一致的推动RAS发展的政府主动性。英国既没有培训技能工人的计划,也没有对于RAS领域发展给予资金支持以激励其进一步发展,英国政府对于其作出的若干承诺已经无法兑现。其中一项英国政府无法兑现、但是值得引起关注的承诺,是致力于整合各机构部门的RAS领导委员会的推迟成立以及未制定明确的未来发展战略。报告的作者们认为,没有这样一个战略计划,英国不能够实现其作为一个全球人工智能道德研究领域领导者的目标,同样也难以在与其相关的领域内寻求领导地位。为防止这样的结果发生,报告作者请求英国政府建立一个能够将学术研究者、行业从业者,以及最重要的政府机构代表与政策制定者组织起来的RAS领导委员会。这一委员会将会坐落于国家RAS机构内,并且与政府和其他研究委员会通力合作,制定英国的RAS国家发展战略,阐明其发展目标并且列举实现这些目标的具体途径。

 


 三、英国科学办公室的报告:人工智能对未来决策的机会和影响[3]




1

人工智能对于创新和生产力的影响

报告的这一部分重点阐述了将人工智能科技广泛应用在个人及公众生活中,可能带来的积极或消极影响。报告的作者通过考察人工智能对于工业生产力的提高,指出人工智能在政府层面大规模使用的潜在可能性。在政府认识到其在公共组织中的责任以及限制的前提下,这些人工智能的使用才会产生积极的效果。


2

政府对人工智能技术的应用

近年来,政府使用先进的学习机器使得机构和个人的工作效率得到大幅度提高。在这样的背景下,报告作者认为,政府使用人工智能科技能够更大程度的提高公共服务的效率、政府决策的透明度,以及各部门之间的互动程度。为达到这些目标,政府必须清楚其公共地位及其负担的义务,并且遵守内阁会议在2016年所作出的伦理道德指导方针,尤其是在以下两项人工智能的应用中:


 人工智能建议功能的使用:人工智能的使用方式中包括作为政府工作的建议者,包括收集与政府相关大量的信息、指出其中的重要的问题和监管的难点、以及提供书面的建议或者分析报告。尽管政府对于人工智能的依赖在加深,但是报告依然强调,有些复杂和重大的事项依然需要人类来做出决策。事实上,报告的作者认为人类永远不能够脱离决策圈,因为人类所扮演的角色是机器永远无法完全取代的。一方面,人类需要对人工智能机器作所做出的结论提出问题,而不能让决策变成完全的自动化;另一方面,如果人类不断的质疑和批评机器的决策结果,会显得过于轻率和无知。所以,报告建议政府所有部门应该尽可能保证其决策过程的透明化,才能让自动化的人工智能系统融入其中并且提供帮助。[4]


 人工智能应用可能带来的法律问题:这种使用模式关注的是,政府在为了分析的目的使用公民的数据时,能否保护公民的数据及隐私、能否一视同仁的对待每个公民的数据、以及能否保证公民个人信息的完整。报告强调,能否做到上述这一点,对于政府赢得公众的信任和保护好本国公民来说至关重要。所以,人工智能系统对于个人数据的使用必须遵循现有的法规,如1998年英国的《数据保护法》(Data Protection Act)[5]和2016年欧盟的《一般数据保护条例》(General Data Protection Regulation)[6],禁止一切未经同意的非法使用公民个人数据的行为。尽管报告作者认为,这些法律规则非常实用和有价值,但是同样强调尝试错误法(trial and error)对于探索人工智能发展潜力的重要性,并且提议建立沙箱区域(sandbox areas),在控制所有可能的变量的前提下,安全地控制和引导这些错误。此外,报告认为,如果政府各个部门之间能够实现资源和方案共享,这个错误尝试法的学习过程能够得到极大缩短。


3

人工智能对劳动就业市场的影响

机械自动化和智能自动化的机器的大规模应用,将会给劳动力市场和国家经济带来巨大影响。报告提到,人工智能科技的大规模应用将会提高工业生产力和国家总体的经济增长,但是具体在多大程度上提高,仍然难以准确估量。这些最新科技的大规模应用,将会从根本上改变英国的个人服务领域,而这一领域贡献了英国最多的劳动岗位。尽管对于新兴科技发展所波及的工作岗位数量在统计数据上略有不同,但是报告却认为应该忽略这些估计的影响,因为新兴行业将会带来新的工作机会,来替代那些本来就可能消失的行业。


自动化以及智能自治机器的应用,将会带来对高技能工作者需求的增长,因为在直觉思维和社会意识为必须的工作领域,需要他们去弥补科技的不足。报告所做的另一个预测是,未来的劳动者们可能将会更加频繁的更换工作,而这需要他们掌握可以随时转换的工作技能。报告总结认为,这些预测应该成为英国未来工人培训计划的核心关注点,以保障公众稳定的就业前景,同时培养公众对于科技进步的积极态度。


4

新的挑战

人工智能系统和智能机器的发展与应用产生了一系列的法律与伦理道德问题。报告认为,对于任何想要解决这些问题的尝试,都应当将以下两点考虑在内。第一,应该考虑并理解网络上不断快速增长的个人信息总量和有效的机器学习需要两者结合所带来的潜在影响,这可能会给个人的数据安全、隐私等基本的个人自由权利产生威胁。第二,是需要建立明确的规则确保人工智能机器决策过程的透明和可归责性。尤其是,为人工智能系统植入带有制度化典型歧视的分析方法所带来的社会政治风险。此外,报告同时提到,通过追踪个人用户的数据记录而收集未经用户许可的信息,并将这些匿名信息聚集起来的行为可能带来的风险。


报告重申对于人工编制的算法和机器自主学习的算法中存在歧视问题的关注,呼吁建立有效的机制辨别和控制这些歧视。对此,报告提供了未来的政策建议:对于人工智能及其应用的发展、安装,使用提出明确的指导方针;要求发明者提供证书;对于人工智能科技的应用所造成的伤害需要有更加明确的法律规范;为公众科技与人工智能的融合提供更多支持。


为了在人工智能科技造成损害的情况下,更好的分配责任,而比较人类的行为逻辑与机器的决策过程的不同的方法,即使作为一个可能的解决该问题的方案,也问题颇多。尽管随着机器逻辑对人类逻辑模仿程度的提高,二者可能会出现一些相似之处,但是由于这种比较方法建立在积累的先例和随之而来的立法上,因此只会让二者出现更多的不同之处。


 尽管关于人工智能机器人的责任问题还没有令人满意的答案,但是人工智能要想积极有效地融入公共和私人领域,它的可归责性和透明度不可或缺。同时,这也是政府采用人工智能科技时为获取公众信任的必要条件。而对于如何确保可归责性和透明度,报告建议,政府应该时刻清楚,新兴科技正在使用的算法、参数、数据,及其使用目的,这样才能判断这项科技是否被负责任的使用。然而,这可能会给确定和评价这些使用带来监管上的难题,同时还有商业和安全上的考虑所带来的限制。可归责性和透明度可能不能很好解答这个问题,因为共享的代码可能并没有在一个具体的决策过程中被使用。此外,考虑到人工智能自主学习的可能性,归责问题就将变得更加复杂。


目前正在讨论解决以上困境的可行措施,包括但不限于以下列举的措施:人类运用智能机器的学习功能去评估某项预设的功能,确定和分析过程中的非常规变化与不连续性,然后追踪和记录其使用和输出的某些计算机算法。这样做法引起了极大的争议,因为这样的监管过程中,没有了人的存在,完全是一个机器监管另一个机器。同时还要考虑到,使用计算机算法或者常规的数据输入所产生的交互效果跟人与计算机的真实交互还是有着很大的区别。报告认为,所有的解决措施都应该尽可能的扩大其社会背景因素的考察范围,尤其是在评估潜在风险的问题上。最后,报告质疑,对于解密机器人某些具体决策过程的过分关注,可能让人们忽视机器人的制造过程和其产生结果的重视。


5

公共对话

报告的这一部分认为,公众的信任是人工智能能够大规模工业化生产和应用的前提条件。为了提高和保持公众的信任,需要政府的监管。所以,报告建议,政府应该为公众提供更加便利的信息,让他们了解人工智能的发展所带来的机会与挑战;为公众与人工智能的融合提供帮助;建立规则和机制解决公众对于人工智能的不满与怨恨;寻找能够让发明者、经销商和最终用户都对其使用人工智能科技的行为负责的方式。而作为公众,应该参与到关于人工智能决策是否可信的讨论中来,同时,也应该经常性的参与对人工智能决策或者依靠人工智能给出的建议所做的决策的正确性概率评估中来,并且讨论和识别人工智能在决策前、决策中以及决策后可能存在的错误。


6

结论

为了促进负责任的创新和获得公众的信任,同时为投资者和发明者创造一个好的环境以及为科技发展争取合理的数据使用,英国政府必须采用一种负责任并积极应对的监管方式。以这样的监管方式监管人工智能,才能灵活的适用于现有的科技及其应用,同样还有未来的各种潜在的科技可能性。而为了更好的监管这一不断变化的科技领域,英国政府首先应该明确为什么要监管以及如何监管。报告作者期待英国皇家学会和英国学院(Royal Society and British Academy)的一份研究报告的发布,因为这份报告研究了现存的以及将有的应对人工智能应用所带来的伦理道德、法律和社会问题的最好办法。在报告结尾,报告的作者们认为英国向来具有积极开展公众对话和监管新兴科技的优良传统。所以,英国能够很好的将人工智能大规模应用所带来的潜在效益最大化的实现。





 四、评论与结语


这两个报告让我们了解了英国在人工智能监管上所面临的机会与挑战,同时还有人工智能的发展带来的伦理道德、法律和社会影响。尽管这两个报告在内容上稍有重合,但是对于同样的问题,两个报告有着不同的态度和侧重点,同时提供了不尽相同的解决措施。所以,为了更好的理解各国政府不同的监管方式,以及了解英国在政策制定过程中的复杂程序,对于更多的相关报告的分析研究是必要的。


 总的来说,各个国家的政府都在推行一种审慎的监管方式,在承认和弥补监管不足的同时,预估未来的监管需要。具体来说,这种监管方式着重强调在道德和知识层面的领导权,同时定位于一个监管上的跨部门合作以提升透明度。这需要政府在其保护本国公民权利的责任与其促进未来经济增长和谋求全球领导者地位的野心之间,进行微妙的权衡。人工智能的发展及其应用,对于所有与其相关的公司、非政府实体以及公众来说,都意味着巨大的机会与挑战。至于如此多的利益群体如何影响政府的决策,以及人工智能将在此决策过程中扮演什么样的角色,让我们拭目以待。


英国如何在脱离欧盟以,失去了一个重要的科技发展资金支持的情况下,试图成为全球科技发明者和投资者的乐土,未来仍然会有更多富有见解的研究报告出台。十分有趣的现象是,英国政府为了提高全球地位而需要确立的伙伴关系,并没有在其将要出台的监管方式中予以讨论,完全忽视了二者在某些方面可能产生的冲突。在英国政府实现其负责且积极响应的RAS式监管体制之前,仍然有许多问题需要得到承认;许多关注需要被讨论;许多解决问题的方法需要被测试;新的委员会需要建立;新的法律法规需要出台。尽管如此,现在看来,英国正走在一条确定和稳健的实现道路上。截至目前,英国已经加入了国际大国在科技领域的全球竞争,想要在这象征着第四次工业革命的科技竞赛中提供更多的需求性指导。


【注释】

[1] The Rt Hon David Willetts, 2013. Speech: Eight great technologies.Available online, at: https://www.gov.uk/government/speeches/eight-great-technologies

[2] Unless otherwise stated, all information in thissection was retrieved from:

House of Commons, Science and Technology Committee.2016. Robotics and artificialintelligence. Accessible online at: http://www.publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf

[3] Unless otherwise stated, all information in thissection was retrieved from:

UK Government Office for Science, 2016. Artificial intelligence: Opportunities andimplications for the future of decision making. Available online, at: https://www.gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-artificial-intelligence-ai-report.pdf

[4] For more information, please see:

UK Cabinet Office, 2016. Data science ethical framework. Available online, at: https://www.gov.uk/government/uploads/system/uploads/attachment_data/file/524298/Data_science_ethics_framework_v1.0_for_publication__1_.pdf

[5] For more information, please see: http://www.legislation.gov.uk/ukpga/1998/29/contents

[6] For more information, please see: http://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32016R0679&from=EN


相关阅读:

人工智能各国战略解读系列之五《欧盟人脑计划》

人工智能各国战略解读系列之四《日本机器人新战略》

人工智能各国战略解读系列之三《欧盟机器人研发计划》

人工智能各国战略解读系列之二《美国机器人发展路线图》

人工智能各国战略解读系列之一《美国国家创新战略》


微信名:腾讯研究院

微信ID:cyberlawrc

❶ 网聚智慧 连接未来
❷ 研究合作:[email protected]

❸ 长按右侧二维码关注


公众号搜索“腾讯研究院”收听研究院及各子中心账号