点击关注,抢跑AI世代
编译 / AI世代编译组
编译 / 金鹿
8月21日消息,据外媒报道,联合国现在必须采取行动,以禁止自主武器(又称杀人机器人)的使用。这是美国太空探索技术公司SpaceX、特斯拉电动汽车公司首席执行官伊隆·马斯克(Elon Musk),连同谷歌DeepMind联合创始人穆斯塔法·苏利曼(Mustafa Suleyman)在内的116名机器人和人工智能(AI)领域领袖人物所签署公开信中的内容,敦促联合国阻止这项技术改变我们所熟悉的冲突模式。
公开信中称:“致命的自主武器有可能成为战争中的第三次革命。一旦它们发展起来,可能导致武装冲突以比以往任何时候更大的规模进行,而且速度比人类所能理解的还要快。”这封信明确概述了自主武器的使用如何超出控制,如何落入坏人之手的细节。信中称:“这些自主武器可能成为恐怖武器,比如独裁者和恐怖分子可能对无辜人群使用。我们没有太多时间可浪费,一旦潘多拉的盒子打开,就很难再关闭。”
机器人和AI社区,以及人权组织始终认为,自主武器很可能成为冲突地区制造极端反人类罪的罪魁祸首。Campaign to Stop Killer Robots组织首席协调员玛丽·韦勒姆(Mary Wareham)称:“杀手机器人将把人类从杀戮决定中排挤出去,这跨越了我们认为不应该超越的基本道德和伦理底线。”
这封公开信发布在联合国即将就致命自主武器问题进行正式讨论之前。鉴于联合国此前已经成立政府专家小组来审查这个问题,公开信中恳求这些专家找到一种方法,来防止获得这类武器的军备竞赛。这封信是在墨尔本召开的国际AI联合会议开幕时发布的,该会议参与者都是世界领先的机器人和AI领域专家。
如信中所述,联合国小组原定于周一开始工作,但最终被推迟到11月份。随后,这封信敦促专家小组在未来几个月内“加倍努力”。这不是AI和机器人专家们首次发布警告,敦促我们需要禁止研发军事机器人。2015年,马斯克、物理学家史蒂芬·霍金(Stephen Hawking)以及苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等3000多名AI研究人员曾签署公开信,要求禁止开发“超过人类控制意义之外的自主武器”。当时,研究人员们说,AI军备竞赛是个“糟糕的主意”。2年后,新的公开信中警告说,糟糕的主意可能引发灾难。(编译/金鹿)