专栏名称: 造就
发现最有创造力的思想。
目录
相关文章推荐
笔记侠  ·  没有复盘,再努力都是低水平重复 ·  2 天前  
AIGC开放社区  ·  AI现身2024国际象棋世界冠军赛!世界棋王 ... ·  3 天前  
AIGC开放社区  ·  AI现身2024国际象棋世界冠军赛!世界棋王 ... ·  3 天前  
奇果酱  ·  7000mAh 只卖 2099 元,这新机卷疯了! ·  4 天前  
奇果酱  ·  7000mAh 只卖 2099 元,这新机卷疯了! ·  4 天前  
花果科技  ·  苹果发布 iOS 18.2 正式版,超多新功能! ·  4 天前  
花果科技  ·  苹果发布 iOS 18.2 正式版,超多新功能! ·  4 天前  
地球资源与地质活动  ·  中国石油:陶士振团队-氦气资源形成、分布与勘 ... ·  5 天前  
地球资源与地质活动  ·  中国石油:陶士振团队-氦气资源形成、分布与勘 ... ·  5 天前  
51好读  ›  专栏  ›  造就

“终结者”AI离我们还有多远?

造就  · 公众号  · 科技自媒体  · 2017-03-26 18:32

正文


机遇只偏爱有准备的头脑,所以,有必要把可能性都探索个遍。

——劳伦斯·克劳斯


我们是否应对人工智能(AI)的潜在风险感到担忧?


最近,我带着这个问题请教了多位AI研究人员,却发现他们的回答大相径庭,几无共识。


而非专业人士更是陷入云里雾里。


问题之一在于,“人工智能”这个词范畴宽泛、模棱两可。它既可以指扫地机器人,又可以指自动驾驶卡车,还可以指电影《终结者》中那种掌握生杀大权的机器人。


概括起来,AI可分为三种:弱AI、强AI,以及超级智能


现在所有的AI都只能算是弱AI。从理论上讲,强AI和超级智能的实现是有可能的,但现在还为时尚早。


要分析AI的风险与裨益,我们有必要理解不同形式AI之间的差别。不同类型的AI牵扯出的潜在风险大不相同,有的无关紧要,有的则非同小可。


以下几个概念界定可帮助我们厘清头绪。


弱AI


狭义人工智能(常被称为弱AI)是一种算法智能,或称专业化智能,几年前就已诞生。


比如完败国际象棋世界冠军加里·卡斯帕罗夫(Garry Kasparov)的“深蓝”计算机,或是iPhone的Siri,乃至语音识别与处理软件。这些都是应用范围相对狭窄的无意识智能。


将弱AI 也归为人工智能似乎不大合适,因为虽然它可在单项任务上完胜人类,但它所有的能耐也仅限于此。


弱AI没有自我意识,不会自设目标,因此,也不会构成什么末日威胁。但考虑到弱AI控制着保持人类文明存续的至关重要的软件,我们还是非常依赖它。

 


强AI


通用人工智能(常被称为强AI)是一种通用系统,又被称为“思维机器”。


从理论上讲,通用人工智能在完成任务层面上和人类不相上下,甚至有时还能更胜一筹;它可以自主思索、推理,并以多种多样的方式解决复杂问题。


强AI是否具备“意识”,这个问题仍存争议。


至少,它能展现出通常与意识密不可分的行为——常识推理、对自然语言的理解力、创造力、策略制定和一般智能行动。


通用人工智能尚未诞生,业界普遍认为或许还要20年。与其同时,几乎所有人也都承认,那一天终将到来。


比如由微软联合创始人保罗·艾伦创立的人工智能研究所(Allen Institute for Artificial Intelligence)及世界各地的其他诸多机构,都在逐渐朝这个目标前进。


此类AI势必涉及到更多的复杂问题,然而,反乌托邦式科幻作品中的大反派还轮不到它来当。


强AI的目标就是达到一般的人类智能水平;除非它在短时间内快速展开递归式的自我改进,否则,它不太可能对人类生命构成灾难性的威胁。


强AI的主要问题涉及经济和文化层面,比如:自动化导致的就业流失,经济原因导致的人口迁移,隐私与数据管理,软件安全漏洞等。


超级智能


最后是超级人工智能。


在2014年的一次访谈中,牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)将其定义为“在各个领域都力压人类的任何智能,这些领域包括科学创造力、一般智识与社交技巧。”


人们在担心AI的危险性时,指的就是这一类型的AI(超级人工智能)。


用博斯特罗姆的话来说,一台真正超级智能的机器会“变得极其强大,以至于能按自己的喜好塑造未来。”


到目前为止,完善的超级智能还遥不可期,但在巨大的激励推动下,研究工作正在持续推进。


经济激励是显而易见的:率先推出超级人工智能的公司将坐拥巨额利润。在政治与军事层面,这一技术的应用前景不可限量。


各国都在争做第一,乃至认为这将是赢者通吃的局面。换言之,科技军备竞赛已然打响。


那么问题来了:我们距这种技术的降临还有多远?它将给人类生活带来怎样的影响?


当初为撰写《超级智能》一书,博斯特罗姆曾向该领域内的顶尖专家提问,其中之一是:“你觉得到哪一年,比肩人类的人工智能可达到50%?”


将所有答案取中位数,结果落在2040至2050年之间,这当然只是预测,但给了我们一个大致的概念。


超级智能的诞生时日难以预测,但相对确定的一点是,它总有一天会实现。


如果智能就是关乎信息处理,如果我们持续提升计算系统的处理容量与速度,那么,超级智能的诞生似乎不可避免。


不论要等50年、100年还是300年,我们总会跨过那道门槛。


真到了那一天,这个世界将会发生什么样的变化,我们可能连做梦也想不到

 


为什么需要担心?


面对各方面都完胜人类的超级智能,我们不能想当然地认为:我们一定驾驭得了。它很可能会提升自我,增强自己的实力。


超级智能机器有可能出现自我意识,产生自己的目的、野心。这种机器怎会乖乖地任人摆布?


如果超级智能开始为自己的目标而奋斗,它有可能产生不符合人类福祉的目标。


超级智能机器的行为将更加难以预料。这样一种存在究竟会想要什么?为什么会产生那样的欲求?它将以何种手段实现这些欲求?我们都不得而知。


以大致确定的是,超级智能会将自己的需求置于人类需求之上。


也许可以这样说:它会对人类需求漠不关心,就好像人类对黑猩猩或短吻鳄的需求漠不关心:人类并非刻意要置黑猩猩和短吻鳄于死地,只是当我们的目标与次等智能生物的福祉产生冲突时,我们恰好造成了这样一种局面。


博斯特罗姆等人怕超级智能,怕的就是这个。


我们必须为这一不可避免的结果做好准备,他最近告诉我说,“出大问题也是完全有可能的,这必须引起我们的重视。”


翻译:雁行

来源:VOX




许田 | 为什么乔布斯临终时叫儿子去学生物技术?

胡慎之 | 为什么那么多人爱看《三生三世十里桃花》?

谢幸 | 我能不能再造一个自己?

马晨骋 | 舞台去哪了?

史航 | 谁能把旧的给创造出来?

伏彩瑞 | 中国教育散不去的霾 

点击标题 查看往期回顾