Photo by Paul Marotta/Getty Images for TechCrunch
谷歌旗下专注人工智能的子公司 DeepMind 已经在认真对待人工智能的道德问题了。这家位于英国的公司于 2014 年被谷歌收购,今天宣布成立新的研究团队,专门研究人工智能领域最棘手的问题。这些问题包括如何管理人工智能的偏见问题、自动驾驶带来的经济影响、如何确保我们开发的任何智能系统都符合我们的道德和价值观。
DeepMind 的伦理与社会团队(DeepMind Ethics & Society 简称 DMES,这是新团队的正式命名)将在 2018 年初发表包含前述主题的研究成果。该团队目前拥有八名全职员工,但 DeepMind 计划在一年时间内扩增至 25 人左右。团队中有 6 位不领薪水的“外部专家”(包括牛津大学的哲学家 Nick Bostrom,他写过关系人类生死存亡的 AI 危机的书籍),并将与纽约大学的 The AI Now Institute 和 Leverhulme Centre for the Future of Intelligence 等学术机构联手进行类似研究。
在宣布团队成立的博文中,团队的联合领导 Verity Harding 和 Sean Legassick 写道,DMES 将“帮助 DeepMind 探索和理解 AI 的现实影响”。这项工作会是什么样子的?他们举了两个例子:调查刑事司法算法是否存在种族主义,以及探讨无人驾驶车辆车祸中的道德话题。“如果 AI 技术要为社会服务,我们必须用日常社会的优先顺序重点和关注点塑造它们。”Harding 和 Legassick 如此写道。
去年,DeepMind 因为与英国国家卫生服务(NHS)的合作而受到批评。今年,DeepMind 自身也意识到了这些挑战。2015 年,DeepMind 与三家伦敦医院达成协议,由 DeepMind 处理 160 万名患者的医疗数据。该协议今年被英国数据监管机构裁定为非法,因为 DeepMind 未能告知患者个人其数据正在被用。之后,DeepMind 表示,它“低估了 NHS 的复杂性和有关患者数据的法规”,并聘任了新的独立伦理审查人员来审查未来的协议。
尽管成立 DMES 证明 DeepMind 在主动公开地考虑 AI 对社会的影响问题,但是该公司仍将继续面临与自身工作相关的伦理影响问题。据报道,DMES 研究人员将与研究 DeepMind 自己产品的员工并行工作,而不是自主行事;DeepMind 内部的伦理审查委员会仍然未对外界公开。当然,对于一家从事尖端技术研究的私营公司来说,开放透明策略是有限制的,但据推测,DMES 也可以解决这个问题。