作者 | 周剑铭 柳渝 李红萍
本文系投稿作品,仅代表作者观点
大数据文摘欢迎各类优质稿件
请联系[email protected]
面对AI的咄咄逼人的发展,AI的伦理学问题成为了时代的焦点,本文重点在于强调“中西文化”和“科学与人文”的不同视角。
今天的AI已经把过去一些认为是耸人听闻的话题变成了无法回避的严肃研究,不仅传统的科学理论与技术实践以及两者的关系正在重构,而且在“科学”与“人文”两大分别的领域之间产生了挑战性的融合问题,面对AI的咄咄逼人的发展,一线科学家们不得不做出权宜的回答,由“生命的未来研究所”(Future of Life Institute,FLI) 牵头制定的“阿西洛马人工智能原则” (Asilomar AI Principles),就可以看作是一线科学家的一个伦理学的应急纲领。
另一方面,传统的哲学、人类学、伦理学等却无法迅速进入到一线前沿,而迫不急待的工业、经济、金融、社会领域所激发的狂潮已经上升到一种国家意识,各国政府开始把AI的发展和工业创造力等作为全球竞争的战略问题提出并付诸行动。
与西方国家对AI的研发不同的方面是,中国文化重视人和人性的中心地位,这使我们能在“中西文化” 和“科学与人文”的相对性中处于一种特殊的文化地位,我们能否在这样两种“两种文化”的交织中不失机缘?我们想在此提出这个问题,面对悠关人类自身利益的人、机伦理关系,期望在一种大格局下研究 AI 平台的伦理学问题。
AI和Robot的发展对人类自身的地位和价值产生了影响,对此担忧由来已久,稍前一些,多家基金、各种研究机构都在关注AI伦理问题,其中由一些著名的人工智能问题专家、教授以志愿者的身份创立的“生命的未来研究所”,于2015 年1月11日发表了一封公开信:Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter(公开信:为稳健性和利益性的人工智能而进行研究),提出“我们的人工智能必须只做我们要它们做的”(our AI systems must do what we want them to do),即“有益的人工智能”(Beneficial AI)的口号。同样对这样的问题的高度关注,此前已经引起了业内外的广泛注意和严肃讨论并有所行动,如:IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems (IEEE 关于人工智能及自主系统的伦理考虑的全球倡议), AAAI 2008-09 Presidential Panel on Long-Term AI Futures( AAAI 2008-09 人工智能未来总统委员会),Partnership on Artificial Intelligence to Benefit People and Society(人工智能合作惠及人与社会) ,AI100 ( 人工智能百年研究计划 ),Ethics and Governance of Artificial Intelligence Fund( 人工智能伦理与治理基金会),Allen Institute for Artificial Intelligence (艾伦人工智能研究所 )等等。
而更早的时候,在实体机器人出现之前的上世纪四十年代,就有了科幻小说家阿西莫夫(Isaac Asimov)著名的“机器人学三大法则”和以后的多种补充原则:
LawⅠ:A Robot may not injure a human being or, through inaction, allow a human being to come to harm.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;
LawⅡ: A robot must obey 0rders given it by human beings except where such orders would conflict with the first law.
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;Law
Ⅲ: A robot must protect its own existence as long as such protection does not conflict with the first or second law.
第三定律:机器人在不违反第一、第二定律情况下要尽可能保护自己的生存。
这三条法则实际是把机器对人的服从作为机器的设计和制造的原则,并没考虑具有“自主能力”、甚或“自我意识”等超级人工智能的问题,而现在那种“高度自主的人工智能系统”(Highly autonomous AI systems)或被称为“强人工智能”或“通用人工智能”(Artificial General Intelligence ,AGI)等似乎已在敲门了,人类如何应对?
在这个意义上,现在可以说,任何一家人工智能研究和开发的大公司、大企业或学术组织所进行的最尖端、最前沿的研究,实际上都是本质地相关人工智能的伦理问题。
二、“阿西洛马人工智能原则”的核心思想:Beneficial AI
2017年1月在美国加州Asilomar召开的“阿西洛马会议”(the 2017 Asilomar conference),包括844名人工智能和机器人领域的专家们联合签署了称之为“阿西洛马人工智能原则”(Asilomar AI Principles),呼吁全世界的人工智能领域工作遵守这些原则,共同保障人类未来的利益和安全。“阿西洛马人工智能原则”核心思想是Beneficial AI,我们解读为 “为了人和人类的AI”。
在这些复杂和紧迫的形势面前,人类能够做出响应的只有基于人类历史中形成的基本伦理信念和长期的伦理学研究成果。面对人工智能迅速发展的现实所面临的伦理学上的迫切问题, 非专业伦理学的一线科学家做出的一个权宜的回答:“阿西洛马人工智能原则”,他们出于科学家传统的职业道德,基于人类的良知和对人类未来的理性关切,把人工智能直接参与的研究者、机构的伦理学问题作为主要对象,把Beneficial AI这个伦理学理念分散地表现在“阿西洛马人工智能原则”23条中,其中具有纲领性的条目如下:
第1项“研究目的”确定了人工智能研究的目的是创造服务于人、并为所控的AI和Robot这个原则,这个原则是人机之间的基本伦理保证,而这个保证最先由研究和开发人员的伦理意识体现和在研发中遵守;所以第16项“人类控制”表达了一种深切的期望。
第2项“研究经费”中对人类资源、意志、价值体系的前提地位的保守和保护。
第10项“价值归属”、第11项“人类价值观”、进一步提高为机器对人的价值的归属是高级人工智能的设计原则第9项“责任”则将这种人机伦理关系作为责任明确地加在研究人员身上;第12项“个人隐私”和第13项“自由和隐私”体现了人的尊严。
第6项“安全性”是为研究工作设定的机器对人的保障的条件,第7项“故障透明性”、第8项“司法透明性”,是对人工智能现有研究、开发的工作制度和法制方面的伦理要求。
第14项“分享利益”、第15项“共同繁荣”第17项“非颠覆”、第18项“人工智能军备竞赛”,这些是人类社会的伦理原则在人工智能研究领域中的体现。
上述的这些内容都是基于人和人性理解的人、机伦理关系,“阿西洛马人工智能原
则”最后一条23条“共公利益”甚至包括了“超级智能”(super intelligence),但这仍是在作为全人类整体利益的考虑,就是为了人类价值和利益的人工智能(beneficial AI),这种把维护人的伦理地位这个前提放在人工智能领域不同层次上多次予以申明,都是基于人的道德和人类尊严的朴素性,但机器或人工智能这个在发展中产生的不同于“自然”又不同于人类自身的东西究竟有何种本质、有何种伦理地位,仍是一个不确定的问题。
“阿西洛马人工智能原则”是世界剧烈变化中古老的人类伦理学精神的觉醒,是剧烈变化和世界中人为捍卫人的地位和尊严的一种努力。“阿西洛马人工智能原则”实际上是所有关注AI和Robot的发展所产生的对人类难以估量的影响的长期观察和思考的一次集中性表达,在更深远的意义上,可以看作是科学家所代表的知识群体和人类的良知对人类自身的性质、地位和价值的一次严肃思考。
人工智能的伦理学中最根本的问题是人、机的伦理学关系,而这种人、机伦理关系又取决于对“人”的意义、价值和地位的理解,这是一个最古老、最深刻的哲学问题,实际上这也是以伦理学问题成为东西方哲学思想中最根本的问题。哲学学科和众多的知识学科,特别是近现代以来的科学技术的发展使哲学、伦理学不断地分化、消散于名目繁多的学科理论之中,当现代人几乎淡忘了这些古老的智慧时,人工智能所面临的巨大预期、困惑甚至是恐惧迫使我们把人工智能的伦理学问题推到一个最重要的位置上。
在人工智能研究最前沿领域中,最困惑人的问题是:有没有高于人的智能的“人工智能”,所谓的 “通用人工智能”、“强人工智能”、“高级人工智能”或“超级人工智能”,甚至于人与超级智能融合新的“超人”(尼采)、“变成神的这种动物”(尤瓦尔•赫拉利)……? “阿西洛马人工智能原则”第19项“能力警惕”中承认、但认为这是一个不能确定的问题,把这个问题归结为“不确定性”只是一种机智的回避,就是说,这个问题的实质是:在人与人工智能的关系之中,存不存在这种基于人类基本伦理信念的人、机之间的伦理关系?因此,一切似乎又回到最古老的哲学和伦理学问题,我们的伦理学基本信念和知识是什么?
迄今为止,人工智能的实体建构主要是建立在物理定律的基础上,物理实体不存在服不服从伦理学原则的问题,但建立在物理实体上的人工智能与基于生命实体上的人的智能有何本质不同,这一直是人类知识理论中最困难的问题,人们一直在等待回答,但今天,人工智能的伦理学问题已经迫使科学家做出一个权宜的回答,以应对作为科学技术研究活动的人工智能作研发中的基本伦理学问题,“阿西洛马人工智能原则”只是一个应急的解决,哲学、伦理学、人类学等专门理论必须直接研究人工智能的一般性质,人、机之间的伦理关系,以及人与人的智能、情感、意识等意义非常深刻的问题,把人、机之间的技术关系提升到伦理学的理论高度上。
这对于哲学和伦理学是一个严重的挑战,在某种意义上,这才是人工智能高速发展所带来的对人的地位和未来的挑战的真实战场。
人类历史上最初的哲学家也是科学家,古代希腊人将科学、哲学、宗教、伦理问题混合在一起讨论,希腊化时代以后,全球性宗教兴起,宗教具有伦理学本质性,历史上社会现实中的伦理学问题主要是由宗教承担的,但宗教不是回答了人的伦理学问题,只是把人的终极本质的问题让渡给神,宗教以从世俗的人向神性的人格过渡为最终目的,因此宗教最终还是不能取代以世俗世界为目的伦理学。
人类知识的积累和进步以及科学技术的发展使现代人享受到前所未有的物质上的“幸福”,但知识和技术本身成为了一种既具有客观性又具有主观性意义的事务,波普曾以“世界3”这个概念来描述这个特殊性的对象,但“世界3”理论并没有得到有力的支持和继续深入展开,其困难在于,“世界3”理论只是一个概念体系而不在传统哲学的体系框架中,波普也没有提供一个与传统哲学中的“主、 客”关系不同的三方关系的研究模式,所以人与知识、工具、技术的关系问题并没有得到深入、系统性的研究。
今天人工智能的发展已经全部覆盖并深深渗入到人类社会的所有事物,已经直接触及到人类一直认为是独享的智能、情感、意识,人工智能与人的智能关系已经变成对人的价值和意义的挑战,人工智能最前沿的研究已成为伦理学的理论前沿,这样的问题不是个人、集体、机构、企业甚或个别国家所面对和能应对的,奥巴马接受“连线”杂志的联合采访时就指出,公共基金在AI开发中扮演角色是必不可缺少。
在今天的研究者、团体、机构、企业已经不断地调整、组合、重组不同的研发平台,甚至国家级研发平台出现的时候,人工智能的伦理学理论和实践实际上成为了AI研发平台上最重要的公共研究课题,认识到把人工智能的伦理学研究作为平台的前沿理论进行建设,是平台建设最基础和最基本的任务之一。
老子的“道德经”和亚里士多德的“尼各马可伦理学”(Ethika Nikomachea)代表了人类对自身的存在状态和社会生存方式的深刻的思想,在这种朴素的人性意识中,人总是作为世界中的唯一的自我意识者的无意识者而被意识到的,虽然“人类中心主义”特别是狭隘的“强人类中心主义”遭到过广泛的讨论或批判,但“人是万物的尺度”(普罗泰戈拉)、“人为自然立法”(康德)这种基于人的价值和地位的统一的朴素观念始终是人和人类的尊严,但这种古老的信念今天已面临危机。
如果说实证科学研究世界“是什么”和“如何是”,那么,伦理学就研究社会“如何是”和人“应该如何是”,这两门学问一直是“科学”和“人文”两大分别领域(所谓的“两种文化”)中的最具代表性的学科,但从科学研究领域中产生和迅猛发展的计算机和人工智能、机器人所具有性质已经不可阻挡地成为了对人类伦理学的核心理念的侵蚀,机器“具有”人的智能,或机器“具有”人的性质,似乎不是人的空想,如果说“人”的尊严和地位被人类社会自身的发展所动摇,今天一点也不过份,正是这种伦理学的意义上,AI和Robot的伦理学问题成为了今天所有人关注的焦点。
伦理学的核心概念是人的社会行为,伦理行为是就实践的道德哲学,AI和Robot的伦理学关切实际上具有超越这种人类伦理学本质的深刻层次:
(一)、人(研究、开发者)如何将传统的人的道德和伦理信念贯彻在自己的所研究、制造、开发的AI和Robot中,使服从甚或具有人的伦理原则;
(二)、人是否有这种超越能力做到这一点?
(三)、AI和Robot在支配它们的物理规律之上有没有或有何种伦理规范?更有甚者,比如,所谓的“科幻模式”的超人工智能(Artificial Super-intelligence ASI),可以问这种伦理问题吗?
在这些复杂、甚至是难以想象的情况下,我们还不得不进一步追问:有没有机器的道德(moral)不道德(immoral)或非道德(amoral)问题?这是人类的问题,还是AI和Robot的问题或是“我们”共同的问题?按照这种方式设想下去,或许有一天机器可能会有模拟人的甚或他们自己的不同于人类自我性质,甚至有他们的思想家、哲学家,它们是类人的人类或者反过来说,我们只是人类类中的子类?
在我们没有超越自身作为这种“人类类”甚或是“类生命”的主体之前,我们无法也不能实质性地设想这些问题,现在最迫切的是,我们是否有赋予AI和Robot以道德心灵的能力?就象上帝造人时也无法使人具有免除罪恶的天性,我们能有这种似乎是超越上帝的能力的能力吗?
我们只能在我们已有的人类的伦理学的理念的基石上进行探索,在这个意义上,我们只有人类的伦理学, 我们的所有关注、思考和行动都是人类的伦理学。从这样的意义上看,Beneficial AI不是机器的道德和伦理,而只是人在研究、发展AI和Robot中的伦理原则,人能否将人的伦理原则赋予机器是一个不确定的问题,今天我们能做的就是坚守我们人类的伦理底线,所以“阿西洛马人工智能原则”是人的道德呼唤,是人性的忧患意识,在这个意义上“阿西洛马人工智能原则”是人类尊严的体现。
“阿西洛马人工智能原则”把参与的研究者、机构的伦理学问题作为主要项目,而把人、机关系的伦理学本质问题作为一个不确定性的问题予以回避,一方面等待在人工智能发展中这些本质性问题不断的暴露和逐步解决,另一方面期待哲学、伦理学的现代复兴和更新视野的关于科学、技术理论和人类、世界的未来的理论的融合发展。
人类不确定性的未来总是挥之不去的阴影,从基督教“世界末日”的预言到“上帝死了”(尼采)到“人死了”(福柯)的西方非理性思潮再到今天“人类的终结”的猜测,似乎是越来越大的震动的脚步声,我们的文化和文明能够重生新的超越的伦理学吗?
笛卡儿说:“我思故(则)我在”,这实际上是基于近代以来的科学理性的怀疑、批判精神对世界和人自己的一种科学态度,即二元论之一的主观世界对包括自己在内的客观世界的一种主观态度而不是一种科学解释,而且这种主观的态度也并不等于“我思”与“我在”二者之间的因果、逻辑、规律等关系,即使有无数的物理、生理、心理等相关方面的研究成果,也无法解释自身的客观性是如何成为意识的主体性的,因此西方文化不能没有超验一元的上帝。在这些之外,除了思想或意识本身,无法外在地去观察“思想”,我们只能直觉到或意识到“思想”,去思想“思想”。我们虽然没有类似的难于理解的关于不可观察的“量子态”的量子力学,但中国哲学或中国思想一直坚持,“思想”对主体的内在(内“心”)性反思超越性才是无元无级(无极)的“思想”的本质,只有这种在这个本质上,我们才能进入到理解人的“智能”的道路。所以,即使有高级甚或越级的人工智能,也必须在“思想”这样的自行越超的“行为”中才有在时间中“存在”的意义,中国文化滋育的中国思想本身就有这种内在的时间性的本质。
正是由于中国传统文化具有人和人性的本质性,所以我们可以在继承中、西方传统学说和理论的基础上直接把人工智能的伦理学问题作为本质的伦理学问题来对待,本质的伦理学问题是人的本质问题,而人是本质的不确定性,不确定性的相对性是确定性,对不确定性问题的研究可以放在不同的层次上展开,在从确定性到确定性的各种同层次的复杂关系模式的研究与整合中,我们才有希望得到确实的进展和进步。
参考资料:
Asilomar AI Principles
(https://futureoflife.org/ai-principles/)
Asilomar Meeting on Long-Term AI Futures
(http://research.microsoft.com/en-
us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm)
AAAI 2008-09 Presidential Panel on Long-Term AI Futures
(http://www.aaai.org/Organization/presidential-panel.php)
IEEE Global Initiative for Ethical Considerations in Artificial
Intelligence and Autonomous Systems
(http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html)
Research Priorities for Robust and Beneficial Artificial Intelligence:
an Open Letter
(http://futureoflife.org/static/data/documents/research_priorities.pdf)
Partnership on Artificial Intelligence to Benefit People and Society
(https://www.partnershiponai.org/)
周剑铭,柳渝:智能哲学:人工智能的伦理学问题(Beneficial AI)网文
周剑铭:现代伦理学与儒家文化——互补的中西文化——现代篇1 网文
如需转载,请在开篇显著位置注明作者和出处(转自:大数据文摘 | bigdatadigest),并在文章结尾放置大数据文摘醒目二维码。无原创标识文章请按照转载要求编辑,可直接转载,转载后请将转载链接发送给我们;有原创标识文章,请发送【文章名称-待授权公众号名称及ID】给我们申请白名单授权。未经许可的转载以及改编者,我们将依法追究其法律责任。联系邮箱:[email protected]。
智能哲学:“第三问题”与图灵的“模仿游戏”