来源:华尔街见闻(ID:wallstreetcn)
前段时间热播的科幻美剧《西部世界》大家看了吗?剧中机器人觉醒、反叛,这或将在现实中发生,甚至情况还会更糟糕。
继2015年9月抛出“人工智能威胁论”之后,近日著名物理学家史蒂芬·霍金(Stephen Hawking)再次表达了他对人工智能(AI)的担忧:AI可能会通过核战争或生物战争让人类灭亡。
AI可能摧毁人类,人类必须尽早防止威胁
人工智能技术一直是霍金关注的重点。
霍金表示,世界的毁灭已经逼近,人类创造了可以毁灭世界的人工智能,却至今仍无能力可以避免这个灾难。
自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来人工智能进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。
霍金认为,人类需要利用逻辑和理性去控制未来可能出现的威胁,必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。
霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。
世界末日逐步逼近,霍金多次做出预测
霍金一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。霍金表示:
一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。
2016年10月,霍金再次表示,人工智慧虽然能为人类消除难题或疾病,但也有可能成为凌驾于人脑的存在,甚至衍生出有自我意识的武器,就像电影《终结者》当中的情节一样,过度进化的人工智能会试图反噬人类。
2016年11月,霍金还对地球末日做出过预测。他认为,按照目前人类活动的强度,地球的寿命只剩下1000年时间,届时如果人类还没有找到另一个移民星球的话,那么将面临毁灭命运。
AI潜在威胁受到越来越多科学家关注
近年来,随着人工智能技术蓬勃发展,其潜在的威胁受到越来越多科学家的关注。
英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:
我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。
对比霍金等人“人工智能将威胁人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:
AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。
Edward Felten认为,计算机科学领域还不存在完美基础,可以促使机器智能水平突然加速提高。上述问题可以通过调整公共政策解决,比如重新分配生产力。
转载请回复 授权 查看须知,
不带来源和二维码一律举报。
若觉得见闻君写得不错,
请点下面的或转给朋友。