专栏名称: 华尔街见闻
追踪全球财经热点,精选影响您财富的资讯,投资理财必备神器!
目录
相关文章推荐
郭磊宏观茶座  ·  【广发宏观郭磊】为何10月PPI略低于依据高 ... ·  4 天前  
第一财经商业数据中心  ·  新消费周报 ... ·  5 天前  
第一财经  ·  稳住!今日情绪指数来了 ·  6 天前  
洪灝的宏观策略  ·  本周末:财新十五周年年度峰会 ... ·  6 天前  
51好读  ›  专栏  ›  华尔街见闻

AI或用核战毁灭人类!霍金再次发出警告,世界末日正在逼近

华尔街见闻  · 公众号  · 财经  · 2017-03-14 17:39

正文



来源:华尔街见闻(ID:wallstreetcn)


前段时间热播的科幻美剧《西部世界》大家看了吗?剧中机器人觉醒、反叛,这或将在现实中发生,甚至情况还会更糟糕。


继2015年9月抛出“人工智能威胁论”之后,近日著名物理学家史蒂芬·霍金(Stephen Hawking)再次表达了他对人工智能(AI)的担忧:AI可能会通过核战争或生物战争让人类灭亡。


AI可能摧毁人类,人类必须尽早防止威胁


人工智能技术一直是霍金关注的重点。


霍金表示,世界的毁灭已经逼近,人类创造了可以毁灭世界的人工智能,却至今仍无能力可以避免这个灾难。


自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来人工智能进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。


霍金认为,人类需要利用逻辑和理性去控制未来可能出现的威胁,必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。


霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。



世界末日逐步逼近,霍金多次做出预测


霍金一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。霍金表示:


一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。


2016年10月,霍金再次表示,人工智慧虽然能为人类消除难题或疾病,但也有可能成为凌驾于人脑的存在,甚至衍生出有自我意识的武器,就像电影《终结者》当中的情节一样,过度进化的人工智能会试图反噬人类。


2016年11月,霍金还对地球末日做出过预测。他认为,按照目前人类活动的强度,地球的寿命只剩下1000年时间,届时如果人类还没有找到另一个移民星球的话,那么将面临毁灭命运。



AI潜在威胁受到越来越多科学家关注


近年来,随着人工智能技术蓬勃发展,其潜在的威胁受到越来越多科学家的关注。


英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:


我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。


对比霍金等人“人工智能将威胁人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:


AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。


Edward Felten认为,计算机科学领域还不存在完美基础,可以促使机器智能水平突然加速提高。上述问题可以通过调整公共政策解决,比如重新分配生产力。



转载请回复 授权 查看须知,

不带来源和二维码一律举报。


若觉得见闻君写得不错,

请点下面的或转给朋友。