进入新世纪以来,人类社会的文明演化呈现出加速发展的态势。21世纪的最初十年,以互联网的普及使用为纽带,社会结构得以重新组织,人类社会与物理社会广泛连接,自此开启了与以往有别的网络社会时代;时至2010年左右,基于广泛分布的传感技术、大规模数据存储和通信技术的应用,数据规模呈现指数型上升,地球村由此步入大数据时代;进入新世纪第二个十年的下半段,伴随着数据处理能力的飞速提高,人工智能对社会开始深度介入,世界正在走向人工智能时代。
整体而论,“人类在进入到21世纪的三个关键时间点,相继出现了三个互相联系又略有区别的新时代,即网络社会时代、大数据时代、人工智能时代,三者共同构成了新的社会时代。”
智能时代是以人工智能(Artificial Intelligence,简称AI)来命名的,作为研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,旨在了解智能的实质,并生产出一种新的能以人类智能相似方式做出反应的智能机器,其研究领域包括机器人、语音识别、图像识别、自然语言处理和专家系统等。这一技术科学将改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。
“这是最好的时代,也是最坏的时代”,英国文学巨匠狄更斯在其名著《双城记》中的开篇话语,一百多年来不断地被人引用。在这里,我们再次以此来描绘人工智能时代的未来图景。一方面,智能革命无疑将给我们带来一个更美好的社会,它是智能的、精细化和人性化的“最好时代”。
在云计算、大数据、深度学习算法、人脑芯片的催化下,人工智能模拟和表现了人类的智慧动力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题,包括危险场合和极端环境的难题,从而形成人类智慧的创造力优势与人工智能的操作性优势之间的强强合作。人工智能现已成为全球新一轮科技革命和产业变革的着力点,在人类智慧能力无穷增大的“科学梦”背后,是一片蕴藏无限生机的产业“新蓝海”。
社会正在从“互联网+”向“人工智能+”转型,旧领域生发出新的产业形态,多领域催生了新兴的细分行业,由此创造出巨大的经济价值和社会财富。在谷歌、脸谱、IBM等领军企业的带领下,全球对人工智能的关注度不断提升。截至2015年,人工智能国际市场的规模为1683亿元,预计到2018年将增至2697亿元,增长率达到17%。在投资规模方面,2015年为484亿元,预计到2020年,投资总量将达到1190亿元。
可以认为,人工智能将从专业性较强的领域逐步拓展到社会生活的各个方面,人类未来会在“万物皆互联、无处不计算”的环境下精准生活。但另一方面,智能革命也将给我们带来诸多麻烦,也许我们面临着一个社会问题丛生和安全隐患不断的“最坏时代”。
到目前为止,人工智能已在全球范围内逐步建立起自己的生态格局,并开始深度介入人类的社会生活。2016年,距离麦卡锡、明斯基、香农等人提出人工智能的概念正好过去60年。在过去的一年,人们看到了许多存在于科幻小说的内容成为现实:人工智能击败了人类顶尖棋手,自动驾驶汽车技术日趋成熟,生产线上活跃着“机器人”群体…… “智能时代,未来已来”。
人们在为人工智能的强大能力感到惊叹的同时,也激发了对人工智能安全问题的普遍忧虑,人工智能是否成为人类“最后的发明”?我们应该如何看待人工智能的潜在风险?
人工智能对人类社会的潜在风险,聚焦于威胁人类自身安全的可能性,涉及人类基本权益的生命与健康、尊严与隐私、安全与自由。科学家认为,人工智能存在着威胁人类存续的可能性,但这种风险不是由于自发的恶意所引起,而应来自人工智能发展过程中出现的不可预测性和潜在的不可逆性。
质言之,人类有智慧能力创造出人工智能,也应有能力和理智来控制人工智能。
因此,“最好是期待人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认它。”
我们应当思考的不是消灭客观危险,而是在这些潜在的威胁和挑战面前,增强风险认识能力,提高制度风险意识,通过法律和其他社会规范来预防规避风险,引导规范人工智能技术健康发展,这即是法学家、法律家的任务。
人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。德国学者贝克认为,人类面临着威胁其生存的由社会所制造的风险。现代化正在成为它自身的主题和问题,因此变得具有反思性。风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情。
在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取风险措施,即预防性行为和因应性的制度。对风险社会问题的法学研究,其重点是法律制度与法律秩序。“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”而法律秩序则是法律制度实行和实现的效果,即社会生活基本方面的法律和制度化。现代社会是法治社会,制度风险及风险法律控制是风险社会法学研究理论的基本内涵。
人工智能既是人类文明,亦有社会风险。它或是“技术—经济”决策导致的风险,也可能是法律所保护的科技文明本身所带来的风险。换言之,知识问题是现代性风险的根本成因,制度以至法律选择的实质应是基于风险的决策。正是在这个意义上,贝克提出知识经济就是“风险经济”,“风险就是知识中的风险”。具体说来,人工智能时代的社会风险具有以下特点:
一是风险的共生性。
风险社会的内在风险,基于技术性风险和制度化风险而形成,且存在共生状态。人工智能时代是一个高度技术化的社会,科学技术的高度发展既是风险社会的特征,也是风险社会的成因。现代社会中的风险是“被制造出来的风险”,是由我们不断发展的知识对这个世界的影响所产生的风险。
马克斯•韦伯形象地指出,人类在不久的将来注定会生活在“技术知识的囚室”。人工智能是知识革命中最具代表性和影响力的时代技术。“对知识体系和技术性知识的信任,是人们在风险社会中获得和持有本体性安全的基础和保证。”从“反思的现代性出发,对法律及其保护的先进技术仅为信任是不够的,人工智能在其发展过程中出现的不可预测性和潜在的不可逆性”,其本身就是一种风险。
同时,人工智能时代的风险含义,还依赖于这样的一个事实,即文明的决策可能触发全球化进程中的一系列问题和一连串的风险,直言之,“风险以决策为先决条件”。制度风险可能来自我们的工业制度、科技政策乃至法律规则,或是表现为对新技术无措的“制度缺失”,或是表现为对新技术错判的“制度失败”。这些即是规则运转失灵的风险,其结果形成制度化风险。
二是风险的时代性。
在风险社会理论中,风险社会这一概念并不是社会发展类型的某一历史分期,也不是某个具体社会和国家的现实发展阶段,而是对当今人类时代问题的理论概括与形象描述。智能革命是时代的产物,其特点是人类智力与人工智力的结合,智能技术导致智力物质化、社会智能化,最终出现智能社会。
智能社会的形成将是一个长期的过程,或者说是一个时代变迁。以人类思维能力和意识的迁移为表征,以智能机器人的活动为中心,人工智能的发展将会递进呈现出不同阶段。如何应对智能时代中现实世界与理念世界的分离,如何防范病毒、黑客对人工智能产品的侵蚀,这种高科技所引发的高风险会持续整个智能革命的时代过程,它是现实的风险,也是未来潜在的风险。
三是风险的全球性。
经济全球化、科技全球化、信息全球化乃至治理机制的全球化,不可避免地带来风险的全球性。反全球化主义者认为,全球化正在催生另一种形态的帝国体制:互联网是“信息帝国主义”,世界贸易组织是“市场帝国主义”,国际货币基金组织是“金融帝国主义”,而联合国是“政治外交的帝国主义”。贝克对此作出了自己的判断:全世界面临着社会认同解体、价值利益冲突、主体组织对立、国家立场对峙、生态环境破坏等不确定因素,这些危机与发展遍布全球,形成对人类生存的新威胁。
可以认为,风险社会是一种“全球风险社会”,风险的空间影响超越了地理边界和社会文化的边界。正如吉登斯所言,“在全球化的时代里,风险的影响被普遍化了。”在人工智能风险的国际应对方面,2016年联合国发布《人工智能政策报告》,表达了对人工智能的关注,并针对人工智能技术发展带来的各种问题,提出了新的思考方式和解决途径。报告呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。
科学技术在人类的文明进步中总是扮演着最活跃、最革命的角色。面对智能革命,我们不能逃避它、否定它和阻止它。上述判断依赖于以下两点事实: