专栏名称: 见闻IPO
华尔街见闻出品,专注于美股市场。为您提供最重要的资讯数据,最全面的市场动态和最深刻的解读分析。
目录
相关文章推荐
嗅嗅挖金  ·  机器人,药店概念 ·  3 天前  
嗅嗅挖金  ·  机器人,药店概念 ·  3 天前  
曾星智中线投资  ·  热点飞过 ·  3 天前  
唐史主任司马迁  ·  消费没啥好买,想着买点年末的电影吧,天气也凉 ... ·  4 天前  
波元霸  ·  第3次切换! ·  4 天前  
波元霸  ·  第3次切换! ·  4 天前  
唐史主任司马迁  ·  “还能买吗”“那还能进吗”这种是新韭菜和次新 ... ·  5 天前  
51好读  ›  专栏  ›  见闻IPO

“钢铁侠”联合百名高管建言联合国:阻止高科技武器军备竞赛

见闻IPO  · 公众号  · 股市  · 2017-08-22 08:01

正文

摘要:著名“AI末世论”支持者马斯克又发出警告了,这次他联合上百名AI行业高管,呼吁联合国禁止发展致命性自主武器。公开信认为,这类武器的发展有可能成为第三次武器革命。

著名的“AI威胁论”者埃隆·马斯克又发出警告了,他联合上百名AI行业的高管向联合国建言:禁止发展致命性自主武器,阻止高科技军备竞赛。

在澳大利亚墨尔本召开的国际人工智能联合会议(IJCAI)上,来自26个国家的知名业内人士、共计116人签署了一封公开信,敦促联合国阐明致命性自主武器,即“杀手机器人”带来的挑战,并且在全球范围内禁止使用这类武器。

除了埃隆·马斯克以外,谷歌DeepMind创始人Mustafa Suleyman、丹麦Universal Robotics创始人Esben stergaard等均在公开信上签名。

公开信:第三次武器革命的威胁

致命性自主武器可通过预设程序自动攻击人类和目标。公开信认为,如果开发成功,那么这类武器将使冲突规模变得前所未有的庞大。

信中写道:

由于公司在人工智能和机器人上建立的技术能被转用于发展自主武器,因此我们觉得特别有责任发出预警。

致命性自主武器有成为第三次武器革命的威胁,一旦开发成功,他们将使冲突规模变得前所未有的庞大,而且会达到人类难以适应的速度,他们将成为恐怖的武器,将成为暴君和恐怖分子残害无辜民众的武器,或者被黑客挟持的武器,我们的时间并不多,一旦潘多拉的盒子被打开,就很难被关上。

因此,我们恳请缔约方找到一种保护我们全人类免于这种危险的途径。

这封公开信是AI和机器人公司首次联合起来对这个问题发声。此前,只有一家加拿大机器人公司Clearpath Robotics曾正式呼吁禁止致命性自主武器的使用。

而在学术界,澳大利亚新南威尔士大学的人工智能教授Toby Walsh在2015年IJCAI会议上就发表了一封公开信,呼吁大家对这个问题的重视。当时,这封信获得了全球该领域数千名研究者的签名,同时也获得了著名物理学家霍金、苹果联合创始人斯蒂夫•沃兹尼亚克、著名学者乔姆斯基的背书。

两年前的这封公开信,还推动了联合国正式讨论这一话题。2016年12月,《特定常规武器公约》的123个缔约国一致同意,就自主武器展开正式讨论。

AI末世论的支持者

AI已经成为了全球最受关注的话题。站在AI领域前沿的马斯克就是最著名的“AI末日派”支持者。 

今年7月,马斯克提出观点,认为AI将是人类文明面临的最大风险,甚至可能引发战争。随着AI技术的发展,这位特斯拉的掌舵者相信未来十年自动驾驶有望在美国普及。不过他同时认为,应该主动监管人工智能,因为未来机器人有可能攻击人类。

过了不久,马斯克又在推特上警告,人工智能对人类的威胁比朝鲜核武器还要大。

著名物理学家霍金也曾在今年3月发出警告,认为人工智能可能通过核战争和生物战争来摧毁人类。抵御威胁的办法就是人类可以组成“世界政府”,防范威胁。


加小编微信“

meigu007”,拉你进见闻美股直播群!



华尔街见闻出品





点击阅读原文,查看见闻美股直播


推荐文章
嗅嗅挖金  ·  机器人,药店概念
3 天前
嗅嗅挖金  ·  机器人,药店概念
3 天前
曾星智中线投资  ·  热点飞过
3 天前
波元霸  ·  第3次切换!
4 天前
波元霸  ·  第3次切换!
4 天前
福建省少年儿童图书馆  ·  家长如何培养孩子感恩之心
7 年前