网易科技讯3月15日消息,据国外媒体报道,著名理论物理学家史蒂芬·霍金(Stephen Hawking)无疑是当代社会最伟大的人物之一,所以当他分享他对世界的一些想法时,很多人都会认真倾听。最近,他一直在谈论一个主题:人类的未来。
最近,霍金对从地外生命到人工智能(AI)等一些热门话题表达了自己的观点。对于后者,他表示出非常担忧。他并不反对开发人工智能技术,事实上,他曾经说过人工智能可能是我们文明历史上最重大的事件。但是像今天世界上其他许多科学家和思想家一样,霍金担心人工智能的崛起可能带来各种负面的副作用。
他已就人工智能对中产阶级工作岗位的影响向我们发出警告,并与特斯拉CEO埃隆·马斯克(Elon Musk)一起,呼吁禁止开发用于军事用途的人工智能机器人。他也担心人工智能可能会接管世界,或者更糟糕的是,它会终止这个世界。现在,他在接受英国《泰晤士报》采访时表示,防御人工智能崛起的最好方式,是组建可以控制这种技术的“某种形式的世界政府”。
霍金接着解释了他建立这样一家国际管理机构的理由:
自人类文明开始以来,人类的积极进取是有益的,因为它具有明确的生存优势。它是在达尔文进化过程中渗透到我们人类基因的。然而,现在技术的发展速度,使这种积极进取可能以核战争或生物战争的方式摧毁我们人类。我们需要利用逻辑和理性来控制这种继承下来的本能。
为了跟上人工智能的发展,我们必须学会适应。霍金在2014年年底表示:“人工智能的发展可能会导致人类的终结。它将自己发展自己,并以不断增长的速度重新设计自己。人类则受到缓慢的生物进化限制,将无法与它竞争,并最终将被它取代。”
他认为这些人工智能机器人抛弃我们,不会是出于任何情感的原因:“人工智能的真正风险不是它有恶意,而是它的能力。一个有超常智慧的人工智能能将非常善于实现目标,如果那些目标与我们的目标不一致,那我们就麻烦了。”
因此,根据霍金的看法,某种形式的管理机构和快速适应的能力——这是即将到来的人工智能或超级智能时代我们生存的法宝。
幸运的是,这样的机构已经出现。这些机构,例如“人工智能伙伴关系”(Partnership on AI)和人工智能伦理与治理基金(Ethics and Governance of Artificial Intelligence Fund),已经开始制定有关指导方针或框架,以让人们更负责任地开发人工智能技术。国际电子电气工程协会(IEEE)还发布了世界首个有关人工智能道德准则的“指南”。
尽管未来的一切难以预料,霍金对未来仍然感到乐观:“这一切听起来有点像厄运来临,但我仍是一个乐观主义者。我认为人类会奋起迎接这些挑战。”