专栏名称: 网络空间治理
专注网络空间治理领域(包括但不限于法律、战略、技术、管理)的理论与实务。
目录
相关文章推荐
哎咆科技  ·  苹果憋大招!iOS 18.4 Siri ... ·  3 天前  
EETOP  ·  精品芯片课·打折倒计时2天! ·  3 天前  
哎咆科技  ·  iPhone 17 ... ·  3 天前  
51好读  ›  专栏  ›  网络空间治理

顾肃 | 人工智能安全性的伦理规范与治理

网络空间治理  · 公众号  ·  · 2024-04-30 16:07

正文


声明:本号系《道德与文明》杂志唯一官方微信公众号,杂志所刊全部文章之信息网络传播权归编辑部所有, 未经授权,谢绝转载 。如有转载需要,请留言或联系:022-23362473,联系人:杨老师。《道德与文明》为伦理学专业理论期刊,本刊只接受官网在线系统投稿,官网地址为: www.ddywm.net 。《道德与文明》从不委托任何其他机构代为征稿,从不向作者收取审稿费、版面费,欢迎踊跃投稿。



人工智能安全性的伦理规范与治理


顾肃

作者简介: 顾肃,复旦大学社会科学高等研究院研究员,南京大学哲学系教授(上海 200433)。


摘  要: 对人工智能安全可靠性的忧虑促使制定其符合伦理标准的开发准则、规范和原则。人操作人工智能系统需要遵守技术伦理规范。利用大数据操作导航、搜索引擎、视频监控、智能识别和动态识别,收集个人全面的行动信息,都必须尊重个人隐私,安全可靠。严格防范和惩治利用图像、音视频仿真等深度伪造技术进行欺诈,监管利用人工智能编辑出来的新的DNA。ChatGPT等生成式人工智能需要尊重知识产权,制止侵权行为。对特斯拉自动驾驶系统撞人事故的案例分析表明,对于人工智能的应用需施以可验证的伦理标准。立法者和大公司正制定重要的人工智能安全法规和设计指导原则。通用人工智能具有很强的自主学习和选择能力,因而更需要设置严格的伦理规范,遵循以人为本的原则,不得伤害人,也不得在人受到伤害时不予救助,必须维护人的整体利益。应严格控制其自主发展的方向,及时发现其自主设计制造电脑病毒、对人实施攻击等危险行为的临界点,发出警报并予以制止。


关键词: 人工智能  安全可靠性  伦理规范  以人为本原则



一、人工智能飞速发展带来安全性忧虑


近年来,人工智能飞速发展,取得了惊人的成就,其应用范围也迅速扩大,从作为人操作设备辅助工具的人工智能,到可以直接产生大量智慧成果的生成式人工智能,不断地深入到人的智能成果的各个领域。如医疗诊断、自动驾驶、智能助理等领域都在迅速扩大应用;车辆的人工智能驾驶技术已经相当成熟,基本可以代替人类来驾驶交通工具;人工智能进行医疗诊断并提供治疗方案,其准确率和治愈率都达到很高的水准。

生成式人工智能更是取得了惊人的进步,在创新式思维上也大有斩获。如近期非常火的ChatGPT之类大型语言模型,这是一种算法能力很强的人工智能系统,在全新检索、交互服务、网络内容、数据处理等方面具有很强的整合或聚合能力。它们不仅可以回答各种信息和知识问题,总结研究课题,创作文字和艺术作品,甚至能够按照人的构想和要求来设计完整的软件程序,即使不具备编程专业知识的人也可以借助人工智能编出复杂的软件程序。更重要的是,它们可以提出新颖的观点、想法、建议和研究议题,开拓人的思维。例如,一项以定性与定量方法评估ChatGPT创造性潜力的研究指出,其所具有的产生创造性回应的潜力类似于人类专家在某些领域的创造性的质量。在另一项关于ChatGPT创造力的心理学实验中,研究者测试了人类与人工智能在响应速度、平均质量和最高质量上的差异,发现ChatGPT不仅在想法和观点生成的响应速度上超过人类,而且在内容的平均质量上也优于人类。蒙大拿大学的该项研究指出,ChatGPT可以与人类最优秀的1%的思想者相比肩。研究者安排该校的24名大学生与ChatGPT同时参加常用的TTCT创造性测试,并与全美国2700名学生的测试成绩进行比较。结果发现,ChatGPT的创造性居于全国大多数学生的最前列。ChatGPT生成了相当比例的最具创新力的建议。这意味着人工智能的比较优势不仅表现在速度方面,也在内容上日见其发展前途。在科学研究方面,人工智能已经能够完成人的有限智力范围内无法完成的工作,比如在巨量的DNA中比较筛选出最佳的一种,用于人类基因缺陷的治疗;在巨量的人类基因数据库中,迅速比对出有亲缘关系的基因,完成用人工比对需要花费很长时间和工作量才能完成的工作。

就像机器取代或延展人在工农业生产中的体力和脑力综合活动一样,人工智能的功能实质上是代替或延展人脑的智力工作。从发展趋势来看,人工智能正在大量执行人脑的工作职能,许多白领人员从事的工作,正在(至少是部分地)被人工智能所取代。例如,在写作新闻报道、工作总结报告、演讲稿、文艺作品、电脑编程甚至参与战争和维持社会安全等方面,人工智能都可以大量取代人力的工作。这是人智力发展上的革命性变革。而且,人工智能所依托的电脑系统本身的运算速度和存储量以惊人的速度增长,已经超出人脑。生产出智力超出人脑千百倍的人工智能系统,已经不是什么遥远的梦想。专司某一特定领域工作的专业人工智能(AI)正在向可以如人那样胜任多方面工作的通用人工智能(AGI)的方向发展。尽管有关通用人工智能是否已经实现、是否真的像人一样自主选择行事还存在争议,但是人工智能系统扩展其自主选择的范围和功能,成为一定程度上自主行事的主体,已经是一个明显的发展趋势,例如无人机、军舰和潜艇等的活动自主性程度在不断提高。

人工智能过快的发展也带来了比较重要的问题,包括众多涉及伦理规范和治理的问题。因而有专家建议在此类问题不能解决之前,先停止人工智能的研发。日前,人工智能安全中心(CAIS)发布了一份由350位人工智能领域的科学家与企业高管联名签署的《人工智能风险声明》,其内容主旨为“降低人工智能导致人类灭绝的风险,应该与流行病及核战争等其他社会规模的风险一起,成为全球优先事项”。包括ChatGPT开发商首席执行官山姆·奥特曼和谷歌DeepMind首席执行官戴密斯·哈萨比斯在内的专家们都支持这一声明。甚至还有人预言,人工智能迟早会战胜、取代甚至毁灭人类。

也有一些乐观者认为,这些问题是可以解决的,人工智能的主要方面是积极的,对人类是有利的。人类可以在发展过程中解决人工智能的伦理规范和治理的问题,从而使其更好地为人类服务。我们确实需要快速采取行动,但是也需要建立能够与之相匹配的道德规范。当人工智能系统模仿和学习人类行为时,我们需要考虑如何确保其遵循道德准则和价值观。人工智能在做出决策时应该虑及公正性,尊重个人权利,同时,人工智能系统必须是安全、可靠、透明和可解释的。因而需要制定符合伦理标准的人工智能开发准则、规范、原则,坚持以人为本的良善价值观,以确保其提供安全可靠的优质服务,不得破坏社会公平,危害人类。

以下分三个方面来讨论人工智能的伦理规范和治理。


二、人操作人工智能系统的技术伦理问题


人工智能是计算机或机器执行通常需要人类智能才能完成的任务的能力,如学习、推理和解决问题,其领域包括自然语言处理、机器学习和深度学习、计算机视觉等。人工智能可以用我们无法理解的方式学习,并以我们所理解的人类甚至超人类的方式行事。归根到底,人利用人造的技术为自己服务,人工智能系统操作的成果是直接被人利用的,它正在许多方面部分地取代人的智力功能,从而产生了技术利用过程中的伦理问题。人工智能的一个重要方面是利用大数据的统计和计算来作出重要的社会管理上的选择,这就直接提出了人工智能成果的可靠性、安全性和信任的问题。

目前自动化和半自动化的机器日益增多,成为人类生活中不可缺少的部分。这些人工智能技术的可靠性就成了日益重要的问题。例如,用导航仪器或软件指导人驾驶机动车或海上航行,已经成了非常普遍的旅行方式。但是,导航地图和软件的可靠性经常被人提起,成为追究责任的关键议题。如有人依靠导航软件走错了地方,甚至南辕北辙。在一个司法诉讼案例中,谷歌导航系统没有标明美国北卡莱罗纳州的一座已经毁坏的桥梁,仍然引导汽车在此条路上行驶,致使在黑夜雨中的驾驶者坠河丧生。其家人为此对谷歌公司提起诉讼,要求其承担错误引导行车的责任。人们对于此类人工智能产品的安全可靠性的担忧日益增长。在追究伦理责任时,大多以制造、销售和维护此类技术的人和法人为主要责任方。显然,制作导航地图的公司有责任及时更新地图和导航软件,使之更准确、安全地提供导航服务。诸如此类提供产品和服务的人工智能系统,都需要及时更新其系统信息,完善其提供的服务。

人工智能产品日益普及,渗入人的生活的各个方面,其规模和速度都是惊人的。例如,人们利用搜索引擎可以获得大量的信息,但搜索引擎对这些信息及信息源的处理却存在伦理责任的问题。如搜索某名人时,可能会跳出大量负面的甚至是捏造的信息,以致对其人身名誉造成伤害。这固然是网络系统中众多人为制造的谣言和错误信息的追责和清理的管理问题,但也反映了搜索引擎系统本身处理方式中存在的隐忧。如搜索引擎在信息筛选和排序上就存在责任问题,还有如何过滤掉造谣和诽谤人的错误信息的责任问题。随着搜索而来的大量无关甚至夸大不实的产品和服务广告,正是如今搜索引擎需要整治的严重问题。

利用人工智能所提供的产品和服务本身的安全性十分重要,需要受到严格监督和控制。数据隐私引发了严重的伦理问题。例如,虽然存在保护个人健康隐私的法规,但随着人工智能技术的进步,仍然有大量个人健康信息被泄露。即使像计步器、智能手机或手表搜集的个人身体活动数据已经去除身份信息,但是通过使用机器学习技术,仍可以重新识别出个人信息并将其与人口统计数据相关联。医疗和保健用品的厂商利用这些数据信息向个人大量投放有针对性的产品广告。

大数据技术日益发展,以前所未有的规模掌握全部人口的各种信息资料,包括个人的私人活动和各种隐私。互联网的发展以及人工智能技术的应用在很大程度上降低了大数据在分析应用方面的成本,摄像头已经遍布社会生活的各个角落,人们走在街上的一举一动,都随时随地处于电子监控的视野中;计算机被广泛用来准确地记录人们的浏览信息;移动通信设备随时跟踪人们的通话记录、聊天记录等。在人工智能时代,在收集个人信息面前,人们处于无处可逃的命运。

在人工智能的应用中,监控发生了根本性的变化,融合了各种类型的监控手段,监控的力度也变得越来越强。视频监控与智能识别和动态识别相结合,在大量的视频监控信息构成的大数据基础上,通过其他技术的智能分析即可进行身份的识别,或是与个人的消费、信用等记录相关联,构成个人完整的数字化的人格。人工智能应用中的数据来自很多方面,既包括权力部门和工商企业收集的个人数据,也包含用户个人在智能应用软件中输入和提供的数据资料,以及智能手机使用所产生的大量数据资料,这些都可能成为人工智能应用中被监控和收集的个人信息,应用程序可以整合碎片化的数据,构画出用户完整的行为和心理图像。这些个人隐私的信息可能借助无线网络通信,通过同步直播而广泛传播,无处不在的直播和小视频播放有可能大量侵犯个人的隐私。对人的各种识别技术日益完善,各种音视频的探头收集巨量的信息,汇集到具有巨大存储和快速运算能力的电脑系统,迅速通过人脸识别掌握任何一个角落里活动的人的全部行动过程和事件。这些识别和记录系统对于刑事案件的迅速侦破和确定各种事件中当事人的责任有很大的优势,比如,及时监视公共场所汽车的行驶状况,确定车祸的责任人。但是,这种人工智能的识别和储存系统如果被别有用心的人和机构所利用,就可能成为破坏个人隐私、监督和控制人的工具,产生恶劣的后果。利用这些技术监控、跟踪甚至威胁个人的行动,造成对个人权利的严重侵犯。因此,不少国家和地区在积极立法,严格限制和控制这些技术的使用,惩罚利用这些技术来非法监控个人、限制人身自由的行为。一些地方的议会对于公路上摄像头的设置,包括其数量、指向和信息处理的安全性,都有明确的规定。国内也发生过有关公共事业单位安置的摄像头设置方式的争议,如将其对准私人住宅的卧室、学生宿舍等方面的行为受到质疑,被要求予以撤除或改正。

人工智能技术已经开发出根据有限的资料即可模仿和制作特定个人讲话和行动的音视频和艺术品,不法分子利用这些技术伪造当事人的言行从事欺诈活动,此类案件已经发生多起。还有利用人工智能技术伪造文书和司法案件中的各类证据,这些都是人工智能技术被用于犯罪活动的例子。深度伪造(deep fake)即是通过非常逼真的伪造技术,实现视频/图像内容中人脸的替换,甚至通过算法来操纵替换人脸的面部表情。结合个性化语音合成技术的应用,所生成的换脸视频与真人相差无几。利用深度伪造技术制作的假新闻、假视频、假信息泛滥成灾,也造成了众多社会问题。这些新技术使得欺诈等犯罪活动更容易得逞。当然,此类案件的刑事责任全在利用这些技术从事犯罪活动的当事人。

人工智能可被用来为用户制造“信息茧房”,使其被算法圈住,所能接受的信息甚至思考的范围都局限于狭窄的区域。利用人工智能技术反复投放有针对性的片面信息,操纵人的思维,甚至达到变相洗脑的目的。如“过滤气泡”依据用户喜好提供相关的内容,网站内嵌的推荐算法根据用户先前活动记录或搜寻历史、所在地区等推荐相关的内容。社交媒体网站依据广大用户的使用数据,构造多个过滤气泡的小循环。“大数据杀熟”即是典型的利用统计数据区别对待客户的做法。对于社交网站拥有较多粉丝的“大V”,客服人员处理其投诉时往往快速识别,使其得到更好的响应。消费频率高的老顾客,在网上所看到的产品或服务的定价反而高于消费频率低或从未消费过的新顾客。这些利用大数据歧视顾客的做法,提出了算法透明性和信息对称的公平性问题。又如“回声室效应”,在社交媒体构建的社群中,往往是意见相近的人聚集在一起,他们乐于接受自己喜欢看到的信息。因而这些相对封闭的社群就不断重复接受相近的意见和观点,以及大量投其所好的夸大不实的臆造信息。这种情况使人更难接受不同的观点和自己不愿意看到的信息,使人的视角和想法更加狭隘和有局限性。信息茧房容易加剧网络群体的极化和对立,从而削弱社会的团结和整合。

因此,人工智能技术成果的社会应用,需要得到严格的监督和控制。尤其是需要严格监控利用人工智能技术进行科学技术创造的活动及其产品。例如,利用人工智能编辑出来的新的DNA,像在实验室里利用化学和生物技术人工制造的新基因一样,无论是病毒、细菌,还是新的动植物品种,都需要进行严格的监管和控制,以防造成难以预测的巨大灾难。

近期生成式人工智能取得了飞速进展,这是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,如ChatGPT大型语言模型在信息检索、人机对话交互服务、网络内容、数据处理等方面都可进行强大的整合工作。它可以应答各类信息和知识问题,创作文字和艺术作品,设计软件程序等。其工作是在巨量的网络信息档案库的基础上加工的,这就存在信息本身的真实可靠性和尊重知识产权的问题。目前,此类人工智能模型在生成作品时对网络信息的加工取舍的算法依据还不够透明,因而所得出的消息的真实可靠性还存在问题。更重要的是,其在创作时是否侵犯了现有作品的知识产权,需要不断地接受检验。像学术规范所要求的那样,生成式人工智能所产生的科研、程序设计和文艺作品也需要注明参考文献和作品的出处,并且尊重原作者的版权。发生侵权时,法律责任应该由模型的制作者来承担。目前的人工智能模型在这些问题上还存在很大的改善空间。

人在利用人工智能新技术成果时出现的伦理问题,属于广义的技术伦理的范畴,需要遵循现有关于正确利用技术的伦理规范。同时,人工智能的发展也引出了一些新的伦理规范的问题,需要制定相应的伦理规范,订立新的法律法规,以便更好地发挥人工智能的积极作用。


三、对人工智能应用的伦理标准的验证


人工智能技术和应用的方式一直在快速发展,尤其是一些人工智能模型自主选择性的程度不断提升,出现了部分自主的系统,最典型的是自动驾驶系统。毫无疑问,人工智能的应用需要适用恰当的伦理规范和准则,这些准则主要是公平性、安全性、透明性、可解释性。公平性要求其尊重个人权利,维护公平正义,不得在人们之间出于身份、族群、年龄、性别等理由而制造人为的歧视,对所有人要一视同仁,公平对待。安全性、透明性和可解释性要求系统必须是安全可靠的,其算法所依据的原则、程序作出选择的过程应当是透明的,完全可以解释的,整个事态发展的过程应当可以找出具体明确的因果联系,这样,在追究伦理责任时才是可以解释和核查的。具体而言,人工智能应用的伦理标准在实际事态发展中应当是可验证的。

对于人工智能的应用,需要施以可验证的伦理标准。这些应用类型多样,因而需要先分类验证。有些需要验证其与伦理无关,有些则需要证明其与伦理相关,并且能够通过伦理的考验。首先,要求模型训练没有预设对人的偏见,不针对种族、性别和年龄等特性设置歧视或特权。例如,一种用于人的盗窃行为的识别系统,其判定行为的依据只能依靠对相关人员的行为特征的客观分析,而不是根据其外形和肤色的族群特性、性别等非伦理因素。

其次,需要有一套伦理验证的程序和流程,以便确保相关的应用符合伦理规范。这适用于多种人工智能产品的应用。典型的例子是自动驾驶,目前特斯拉等公司的电动汽车已经可以实现自动驾驶,包括中国在内的一些城市的公交车等类车辆也可以做到自动驾驶。汽车可以按照设定的导航路线,自动处理路途中的各种情境,包括瞬时意外情况,驶达预定的目的地。这就为针对路上发生的状况进行决策提出了伦理验证和规范的问题。为此,人们把自动驾驶一类人工智能产品的伦理当作其性能的一部分,在模拟的环境中充分地测试和验证其性能,并以科学的方法给出综合评估。这就需要制定核准伦理的标准,以此来核准和验证相关的自动驾驶单元,只有获得认证的单元才能进行自主的伦理决策。这种验证程序是在各种极端情境下,对自动驾驶的感知、规划和决策模块进行有针对性的测试,找出错误(如撞车事故)发生和扩散的因果链条,以确定最终的出错原因。

伦理决策的验证核准最关键的一点在于,它必须是可解释的,即能够确切地说明伦理决策发生的因果关联。可解释性揭示了从观测到决策可见的完整过程,包括清楚地表明当中如何调用知识,如何进行推理。而且,需要根据大量的随机试验,在现实和模拟的世界中通过因果推断来说明人工智能单元的伦理决策不存在问题。由此可见,伦理核准是一种特殊的性能测试,而考题设计是试验的关键所在。

这里分析一个寻找并确认错误来源的案例。2018年3月18日傍晚,在美国亚利桑那州的腾皮市,一名白人女性在推着自行车横穿马路时被一辆优步(Uber)自动驾驶测试车所撞击,这是自动驾驶汽车撞死行人的首个案例。行车记录显示,碰撞前6秒车速为69千米/小时,车载毫米波雷达和激光雷达都检测到了前方有物体。在碰撞前1.3秒,系统才决定进入紧急制动状态,但需要1秒来执行。碰撞时速度为63千米/小时,减速得不多。这辆SUV自动驾驶汽车犯了两大致命错误,一是在前4秒内,自动驾驶系统没有作出需要紧急制动的判断;二是识别系统出现了自洽性问题,即它的识别结果不统一,一会儿是“未知物体”,一会儿是“车辆”,一会儿是“自行车”。如果确定是自行车,那就应该立即作出紧急刹车的决定,因为在道路当中的自行车肯定是有人在旁边,无论是骑行还是推行。但是,自驾车没有及时识别出自行车而发出急刹车的指令。因为当识别为“自行车”时,即使自洽性有问题,也要紧急制动或者转向。在追究造成这场悲剧的法律责任时,亚利桑那州检察官于2019年3月裁定,测试此自动驾驶系统的优步公司免于刑事责任,但测试时坐在驾驶座上的驾驶人则被指控犯有过失致人死命罪。相关的公司暂时停止了自动驾驶的测试,但一段时间以后又恢复了测试。美国的交通安全委员会也作出了一系列的安全指令。当然,自动驾驶技术还在发展中,这个悲剧使得研究者认识到伦理设定在智能系统决策中的重要性,认为它必须成为模型可解释性的一部分,确保任何错误都可以被溯源。

在相当一段时间内,自动驾驶汽车的驾驶座位上都得有一名驾驶员,由其本人在自驾系统的运作中作出最后的决定,以便在出现紧急情况时及时地转向或刹车,并且在汽车出事时承担最终的法律责任。但是,随着自动驾驶技术的进一步发展,包括大量的行驶数据输入系统帮助其进行驾驶决策,自驾技术也日益成熟。这也使得智能自驾系统的伦理规范的设置更加重要。当自动驾驶成为道路上的主要驾驶方式时,该系统将会承担主要的伦理和法律责任,尽管最终责任归属于设计和制造整个智能驾驶系统的人。系统在旅途中驾驶车辆时会遇到各种非预先设计的意外事件,会面临像真人驾驶时遇到的伦理选择的难题。比如美国哲学家桑德尔在讨论公正问题时所设想的“电车驾驶员”伦理难题。车辆在道路上遇到刹车失灵的意外情况,在路的尽头有5名工人在干活,如果任由电车向前行驶,则此五人必死无疑。但在前面的分叉处只有一名工人在干活,方向盘还可以用的电车是否可以选择此条分叉,以牺牲一人而拯救五人?类似的伦理难题可以举出许多,虽然是不常见的极端的特殊情况,却是人或完全自主驾驶的汽车有可能面临的伦理难题。该伦理难题要人回答,可否在特殊情况下为了拯救数人而牺牲一人。这些难题的解答,依赖于人持有的根本价值观和信奉的公平正义原则。比如功利主义理论以人们的幸福总量的增加为主要标准,因而牺牲个人以拯救数人是可取的。义务论或权利论则难以接受这样的原则。对自动驾驶系统也需要设定人所接受的伦理原则或准则,用作实际进行选择时的伦理依据。

随着人工智能的迅速发展和广泛应用,各国都在为其伦理治理制定相应的标准、政策法规和立法。这已经成为各国政府的共识。全球至少已有60多个国家制定和实施了人工智能治理政策。比如英国出台了历史上首个关于机器人伦理的设计标准——《机器人和机器系统的伦理设计和应用指南》。英国金融稳定委员会(FBS)制定了人工智能和机器学习在金融服务领域的应用规范,强调可靠性问责制、透明度、公平性以及道德标准等。欧盟先后出台了《欧盟人工智能法案》《可信AI伦理指南》《算法责任与透明治理框架》等指导性文件,期望通过高标准的立法和监管来重塑全球数字发展模式。其中,欧洲议会于2023年6月14日通过的《欧盟人工智能法案》的决议标志着欧洲在人工智能安全方面制定了重要的指导原则和实施步骤,为未来的人工智能应用提供了法律框架,并在全球范围内树立了新的监管标准。

微软、谷歌等著名科技公司在人工智能伦理治理方面也作出了积极的努力,设置了专门的机构来负责人工智能规则制定、案例研究、落地监督等,并研发了一系列技术解决方案。谷歌从各方面规定了人工智能设计、使用的原则,并承诺愿意随着时间的推移而及时调整这些原则。其所成立的负责任创新中央团队努力落实伦理治理的实践,例如,为避免算法不公平或歧视的恶化,暂停开发与信贷有关的人工智能产品;出于技术问题和政策的考量,拒绝通过面部识别审提案;审慎地进行有关大型语言模型的研究,在正式推出其成果之前,先全面进行人工智能原则审查。

为了提升人工智能的创新性并确保大规模人工智能模式的安全发展,一些立法者提出需要加快其安全立法。如在拥有众多世界一流人工智能公司的加利福尼亚州,其参议员斯各特·维纳(Scott Wiener)为州立法机构起草了一个名为《人工智能安全法案》的提案,要求所有实验室为各个先进的人工智能模型进行安全风险检测,并且在发现安全风险时制定各项透明性的要求。他特别强调,由于人工智能模型近年表现出良好的前景,但也显出公共安全上的严重风险,人工智能要求立法上作出强烈的回应。这也是通过立法来为人工智能设置行业安全标准的一次努力。

尽管对于人工智能的安全可靠性的伦理治理已经成为国际共识,但是,目前还没有制定出相应的全球合作计划,也还未设立一个全球性的人工智能监管机构。一些国家和国家联盟提出过一些建议,如欧盟提出严格的提议,包括主要根据人工智能产品的影响力对其进行分组,比如,癌症检测工具或面部识别工具的监管要比对垃圾电子邮件过滤器的监管更严。英国把人工智能监管纳入现有政府监管机构的职责范围,当事人如果认为自己受到技术歧视,可以向平等委员会寻求帮助,以维护数字正义。中国政府也在进行相关的立法工作,提出了安全、合法、公平、正义的原则方法。

当然,有一些行业协会作出了订立普遍标准的努力。比如具有普遍代表性的电气电子工程学会(IEEE)发布了《人工智能设计的伦理准则》,这是一个全球性的行业协会就人工智能的伦理准则作出的权威声明。2017年12月发布的该准则第二版,系统地论述了人工智能伦理的基本准则,开头即指出:“随着自主和智能系统的应用和影响无处不在,我们需要建立社会与政策方面的指南,从而确保这些系统以人为本,并服务于人类价值和伦理准则。为了能够以积极的、非教条的方式推动自主与智能系统的发展,我们科技界需要加强自我反思,需要围绕我们的想象、我们明确或隐含的价值观、我们的机构、符号和表征开展公开和诚实的讨论。”为此,学会准则提出了合乎伦理地设计、开发和应用这些技术,应遵循以下一般原则:人权,即确保它们不侵犯国际公认的人权;福祉,即在它们的设计和使用中优先考虑人类福祉的指标;问责,即确保它们的设计者和操作者负责任且可问责;透明,即确保它们以透明的方式运行;慎用,即将滥用的风险降到最低。


四、通用人工智能的伦理规范和治理


人工智能正逐渐从单一任务执行的专业人工智能向更加广泛和复杂的任务方向发展。通用人工智能(AGI)由此而受到了更多的关注和研究。这是指一种能够像人一样在各种领域执行各项任务的智能系统,具有类似人类的智慧、自主决策和学习能力,能够执行包括语音识别、自然语言处理、视觉识别、游戏博弈、争战打斗等多项任务。

尽管学术界对于通用人工智能的判定标准以及现实中是否已经实现了通用人工智能还存在争议,但其主要的特征和属性基本可以确定。通用人工智能不仅可以处理特定类型的任务,而且能处理人在生活和工作中面临的各种问题和任务,通过自主选择而临场处理。它还可以像人一样进行自我改进,从经验中学习,并具备对现实世界的理解和推理能力,随时解决人类面临的各种复杂问题。具有自我意识和自主选择能力是通用人工智能的重要特性和优势。实现这些优势当然需要解决若干技术和理论难题。这就要求通用人工智能具有高度的自主决策和自我学习能力,从不同的数据源获取信息,从而学习和适应不同的情境和场景。同时,要求其在不同的领域中执行任务,这就需要系统具有高度的灵活性和适应性。甚至要求通用人工智能具备类似人的情感和道德能力,以适应复杂的社会环境和人际关系。







请到「今天看啥」查看全文