如果知道自己要交税,要面对 “道德审判”,真正的人工智能还想诞生吗?就像你如果知道会生在 Hard 模式的天朝,是否会想重新排个号?
雷锋网报道,比尔 · 盖茨在上周接受 Quartz 采访时称,如果机器人替代人类来完成相同的工作,它们就应该依法纳税,这能成为许多工作的工资来源,而税收将用来培训失业者。虽然这事还没定,但可怜的机器人还不知道怎么回事的时候就要被 “税” 了。
他的看法是,“如果对于创新带来的结果大家的恐惧大于热情,就意味着人们不会为了光明的一面推动其不断前进,而靠收税来控制局面,总比直接一股脑禁掉好。”
盖茨深谙 “能用钱解决的都不是问题” 这一道理。你们人类不就是怕失业怕没收入吗,钱你们拿走,让我们机器人自由发展。
不过事情没那么简单,除在经济制约,还有很多机构企图从 “思想” 上控制机器人,纷纷建立了道德伦理委员会。
呼声最高的是埃隆 · 马斯克新自参与的 OpenAI。马斯克自己曾在采访中称,OpenAI“是一个推动人工智能发展的非盈利组织。从本质上说,它是一个研发实验室,它反对大企业掌控超级智能系统并用来谋取巨额利润,反对政府利用人工智能系统获得更大特权并用于压迫民众。”
该组织的任务不仅仅是推动数字智能的发展,而且讨论人类该如何符合伦理且有效地应用这个技术。这个机构还没正式成立的时候,就拿到了 10 亿美元(甚至更多)的融资。
马斯克经常在 twitter 上鼓吹人工智能威胁论,虽然他旗下的特斯拉也算人工智能的一部分,而且在车祸中出现过责任认定问题。由于大嘴属性与经常唱黑人工智能,他也受到了不少批评。比如,艾伦人工智能研究所 CEO Oren Etzioni 就称 “马斯克非常不负责任,又虚伪”。不过他并非对 “心怀恶意” 的人工智能不担心,而是认为这是 50 年,甚至 100 年以后的事。
但确实有很多人未雨绸缪。
联合国教科文组织与世界科学知识与技术伦理委员会就在 2016 年的报告中,讨论了机器人的制造和使用促进了人工智能的进步,以及进步所带来的社会与伦理道德问题。在对机器人的操作失灵造成事故,形成责任承担问题时,报告中甚至提出,可以让智能机器人承担责任,因为智能机器人确实拥有前所未有的自主性,并且拥有能够独立做出决策的能力。
雷锋网还曾报道,杀手机器人(killer robots)也曾出现在联合国的讨论议题之中。
英国标准协会(BSI)则更加实际,它在去年发布了一套机器人伦理指南。BSI 是有着 100 多年历史的英国国家标准机构,在世界范围内具有很高的权威性。它发布的伦理指南名称是《机器人和机器系统的伦理设计和应用指南》,主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。最终目的是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。
面对机器人伦理问题这类前沿选题,学术机构的参与也不少。
年初时,MIT 媒体实验室与哈佛大学伯克曼 · 克莱因互联网与社会研究中心,合作推出一个预计耗资 2700 万美元的 AI 伦理研究计划。雷锋网了解到,他们想解决人工智能所带来的人文及道德问题,研究它应当如何承担社会责任(比如在教育、司法中确保公平性),并帮助公众理解人工智能的复杂性和多样性。
或许更重要的,是那些推动人工智能的公司本身所发起的项目。亚马逊、Google、Facebook、IBM 和微软(苹果随后加入)共同成立了人工智能联盟(Partnership on AI),致力于解决 AI 技术的可靠性等问题。
这家非营利性组织致力于为应对 AI 的机遇和挑战寻找最佳实践指导,而且对政策和伦理领域内的学者、其他非营利组织和专家也是开放的,以便汇集更多的力量。
甚至掀起了这波始于 2016 年初的人工智能热的 DeepMind,也对伦理问题情有独钟。据称,三年前 Google 6.5 亿美元收购 DeepMind 时,交易条件之一就是,Google 要创建一个 AI 伦理委员会,它还必须同意,不能将 DeepMind 开发的技术用于军事或情报目的。
看到这么多条条框框,真 · 人工智能或许在诞生后,也会假装自己不在吧。