4月13日,中国科学院科技战略咨询研究院与腾讯研究院联合举办的“2017人工智能:技术、伦理与法律研讨会”将在北京召开,会议邀请人工智能领域知名学者和业内人士共同探讨当前人工智能技术发展中面临的和带来的伦理、法律、社会经济影响等问题。
为了使AI朝着有益和普惠的方向发展,需要进行前瞻性的法律、伦理、安全等AI社会影响研究,需要AI伦理等人文研究来为技术把脉。此前,IEEE、ISOC等组织尝试提出人工智能的伦理标准,在这一方面做出了有益探索。
未来,人工智能的发展,尤其是假设中的通用人工智能(AGI)和超级人工智能(ASI)的出现,将给人类社会带来深远影响,因此需要一些基本的原则来支撑、引导人工智能的良性发展。为此,我们提出“人工智能(AI)发展六大原则”,涵盖自由、正义、福祉、伦理、安全和责任六大层面。这些原则目前只是1.0版,后续将推出更新版本,欢迎提出建议。腾讯研究院法律研究中心副主任、首席研究员蔡雄山先生在本次研讨会上做主题发言,一一阐述这些原则。
当前人工智能技术逐渐成熟、应用日益广泛、产业蓬勃发展,人工智能发展的第三次浪潮来临。人工智能的发展将深刻改变我们的经济、社会,甚至生产生活方式,也将带来一系列挑战。为了确保人工智能朝着普惠(broadly shared)和有益(beneficial)的方向发展,我们认为人工智能发展应遵循自由、正义、福祉、伦理、安全、责任六大原则。
一、自由原则
1、人工智能研发与应用应符合人的尊严,保障人的权利与自由。
2、人工智能的发展应加强隐私保护,加强个人对数据的控制,防止数据滥用。
二、正义原则
3、确保算法决策的透明性,确保算法设定公平、合理、无歧视。
4、人工智能决策可能影响个人权益,应该提供救济途径。
5、推动人工智能的效益在世界范围内公平分配,缩小数字鸿沟。
三、福祉原则
6、人工智能的发展应以促进人类福祉为目的,推动经济社会可持续发展。
7、和平利用人工智能及相关技术,避免致命性人工智能武器的军备竞赛。
8、人工智能的发展应促进数字经济发展,积极应对人工智能带来的就业影响。
9、应不断完善教育体系,培养与人工智能时代相适应的人才。
四、伦理原则
10、将伦理设计嵌入系统,使其成为有道德的机器,保证伦理规范的多样性和包容性。
11、保证人工智能系统遵守人类社会伦理规范。
12、不断检验伦理设计是否与现实人类规范相符合。
五、安全原则
13、人工智能研发、设计及应用应保障人身安全、财产安全及网络信息安全。
14、个人数据的收集与使用应符合规范与法律制度,保障数据安全。
15、针对人工智能的风险,需要有针对性的准备措施及预案。
16、不断加强民众对于人工智能的教育,提高安全等相关意识。
六、责任原则
17、立法与司法应明晰人工智能责任相关立法与规则,不断完善人工智能相关标准,确保人工智能研发及应用的可追责性。
18、积极探索人工智能应用领域的监管机制及监管制度,保障安全,促进发展。
19、加强人工智能研究国际合作,共同探讨并应对人工智能带来的挑战。
蔡雄山 腾讯研究院法律研究中心副主任 首席研究员
曹建峰 腾讯研究院研究员
孙那 腾讯研究院研究员