专栏名称: AI前线
我们专注大数据和机器学习,关注前沿技术和业界实践。每天发布高质量文章,技术案例等原创干货源源不断。同时有四千人的社群微课堂,每周一次业界大牛技术分享,也希望你能从这里分享前沿技术,交流深度思考。
目录
相关文章推荐
国家数据局  ·  2024年“数据要素×”大赛优秀项目案例集— ... ·  7 小时前  
大数据分析和人工智能  ·  258页PPT精解DeepSeek应用 ·  2 天前  
大数据文摘  ·  欧洲「DeepSeek」发布了全世界最好的 ... ·  2 天前  
软件定义世界(SDX)  ·  北京大学第四弹:DeepSeek私有化部署和一体机 ·  2 天前  
数据派THU  ·  如何运行本地 DeepSeek 模型并在 ... ·  3 天前  
51好读  ›  专栏  ›  AI前线

DeepMind成立新团队,专门研究AI道德问题

AI前线  · 公众号  · 大数据  · 2017-10-23 17:52

正文

Photo by Paul Marotta/Getty Images for TechCrunch

作者 | James Vincent
译者 | BrotherZhao
编辑|Emily

谷歌旗下专注人工智能的子公司 DeepMind 已经在认真对待人工智能的道德问题了。这家位于英国的公司于 2014 年被谷歌收购,今天宣布成立新的研究团队,专门研究人工智能领域最棘手的问题。这些问题包括如何管理人工智能的偏见问题、自动驾驶带来的经济影响、如何确保我们开发的任何智能系统都符合我们的道德和价值观。

DeepMind 的伦理与社会团队(DeepMind Ethics & Society 简称 DMES,这是新团队的正式命名)将在 2018 年初发表包含前述主题的研究成果。该团队目前拥有八名全职员工,但 DeepMind 计划在一年时间内扩增至 25 人左右。团队中有 6 位不领薪水的“外部专家”(包括牛津大学的哲学家 Nick Bostrom,他写过关系人类生死存亡的 AI 危机的书籍),并将与纽约大学的 The AI Now Institute 和 Leverhulme Centre for the Future of Intelligence 等学术机构联手进行类似研究。

在宣布团队成立的博文中,团队的联合领导 Verity Harding 和 Sean Legassick 写道,DMES 将“帮助 DeepMind 探索和理解 AI 的现实影响”。这项工作会是什么样子的?他们举了两个例子:调查刑事司法算法是否存在种族主义,以及探讨无人驾驶车辆车祸中的道德话题。“如果 AI 技术要为社会服务,我们必须用日常社会的优先顺序重点和关注点塑造它们。”Harding 和 Legassick 如此写道。

去年,DeepMind 因为与英国国家卫生服务(NHS)的合作而受到批评。今年,DeepMind 自身也意识到了这些挑战。2015 年,DeepMind 与三家伦敦医院达成协议,由 DeepMind 处理 160 万名患者的医疗数据。该协议今年被英国数据监管机构裁定为非法,因为 DeepMind 未能告知患者个人其数据正在被用。之后,DeepMind 表示,它“低估了 NHS 的复杂性和有关患者数据的法规”,并聘任了新的独立伦理审查人员来审查未来的协议。

尽管成立 DMES 证明 DeepMind 在主动公开地考虑 AI 对社会的影响问题,但是该公司仍将继续面临与自身工作相关的伦理影响问题。据报道,DMES 研究人员将与研究 DeepMind 自己产品的员工并行工作,而不是自主行事;DeepMind 内部的伦理审查委员会仍然未对外界公开。当然,对于一家从事尖端技术研究的私营公司来说,开放透明策略是有限制的,但据推测,DMES 也可以解决这个问题。







请到「今天看啥」查看全文