4月27日,第九届GMIC全球移动互联网大会在国家会议中心拉开帷幕。来自英国的
著名科学家斯蒂芬•霍金教授
通过视频发表演讲,谈了他关于人工智能的看法。
创新工场董事长兼CEO李开复
在大会上做了关于人工智能时代科学家创业的主题演讲。
作为GMIC官方内容记录和分享合作方,有道云笔记在现场,通过录音、文字、图片,实时记录了斯蒂芬•霍金教授和李开复老师的全部演讲内容
,并上传至有道云笔记中,没有到场的用户可以通过长按识别下方二维码查看原文全文。
(或:关注“有道云笔记”公众号,回复关键词“GMIC”)
以下节选来自
斯蒂芬•霍金教授《让人工智能造福人类及其赖以生存的家园》主题演讲及李开复老师的问答,由"有道云笔记"记录整理提供。
It could also be the last, unless we learn how to avoid the risks. I have said in the past that the development of full AI, could spell the end of the human race, such as the ultimate use of powerful autonomous weapons. Earlier this year, I, along with other international scientists, supported the United Nations convention to negotiate a ban on nuclear weapons. We await the outcome with nervous anticipation. Currently, nine nuclear powers have access to roughly 14,000 nuclear weapons, any one of which can obliterate cities, contaminate wide swathes of land with radioactive fall-out, and the most horrible hazard of all, cause a nuclear-induced winter, in which the fires and smoke might trigger a global mini-ice age. The result is a complete collapse of the global food system, and apocalyptic unrest, potentially killing most people on earth. We scientists bear a special responsibility for nuclear weapons, since it was scientists who invented them, and discovered that their effects are even more horrific than first thought.
人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。
李开复问霍金教授:
互联网巨头拥有巨量的数据,而这些数据会给他们各种以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,他们是无法自律的。而且,这种行为也会导致小公司和创业者更难创新。您常谈到如何约束人工智能,但更难的是如何约束人本身。您认为我们应该如何约束这些巨头?