本文篇幅较长,但小Q还是建议大家耐心读下去。对于人工智能的讨论,近年来一直很热,而李世石对弈AlphaGo更是在柴堆里添了一把火。AI变革,走向超级大脑的进程已经上线,你持什么样的看法?我们已经到了濒临变革的边缘,而这种变革将会像人类的诞生一样改变一切。
——弗诺文奇
在这一时刻,你有什么想法?
从这幅图中可以看到,人类正处在至关重要的位置。但是你要清楚的是,在真正的时间图中我们是看不到右手边的。所以实际上的感受应该是这样的:
这幅时间图似乎看起来很平常……
遥远的未来即将来临
想象一下自己乘坐时光机器回到1750年,那个时候还没有电,必须通过声嘶力竭的呐喊或是发射火炮才能和远处的人交流,所有的交通也都是依靠牲畜。你在那找了一个年轻人并把他带回了2015年,让他到处走走并观察他的反应。
观看在1000英里以外举行的比赛、欣赏50年前的一场音乐会、我们手中的神奇方块可以捕捉真实的景象或是记录一个动态瞬间、使用的地图可以随时显示自己位置、和相隔万里的朋友可视通话等等,他看到这些时候的心情和想法是我们无法想象的。但除此之外,你还要向他解释国际空间站、大型强子对撞机、核武器以及广义相对论等很多他不知道的事物。
这样的经历可能会让他感到惊讶、惊吓,甚至震撼——这些词都不足以形容,事实上他可能会因此死掉。
库兹韦尔说,整个20世纪的进程如果以2000年的发展速度,只要20年就可以达到。换句话说,2000年的发展速度是整个20世纪平均发展速度的5倍。他认为这样的发展量在2000年到2014年间就又达到了,而下一次达到会在2021年,只要7年时间。
几十年之后,只要一年时间就可以达到好几个整个20世纪所达到的发展总量,甚至在更远的未来只需要不到一个月时间。总之,根据加速回报法则,库兹韦尔相信21世纪的发展总量会是20世纪的1000倍。
这不是科幻小说,甚至远远超过我们现在的科学知识所预见到的未来。如果你熟悉历史,就会知道这一说法是合乎逻辑的。
所以当我说“30年之后的世界将会是你我无法想象的”的时候,你们或许会想“真酷,但是这是真的吗?”我们之所以这样预测未来是基于以下三个原因:
1、我们往往认为历史是线性发展的。当我们想象接下来30年的发展时,总会以过去30年的发展作为参照物、当我们想知道21世纪世界会改变成什么样子的时候,总会将20世纪的变化加到2000年上。这种线性思考方式是最直观的,但是更加理智的人会知道其实应该是指数发展的,所以若是想预测接下来30年的发展就必须要将现在的发展速度作指数运算。
2、短期发展呈现总是一条直线。首先,就算是一条指数曲线,如果只看一小段的话也是近似于直线的;同样的,一个大圆的一小段也是近似于直线的。其次,指数的增长也不是完全光滑和均匀的,库兹韦尔将其解释为“S曲线”。
这种S曲线是现在席卷全球的一种新发展趋势,一共分为三个阶段:
缓慢增长阶段(呈指数增长的早期)
快速增长阶段(呈指数增长的后期)
趋于平稳的特定阶段
如果大家对近期发展十分了解,那么这个“S曲线”可以帮助我们预测接下来的发展。互联网在1995年到2007年间呈爆炸式增长,微软、谷歌、Facebook走进人们的视线,社交网络快速发展,手机和智能手机相继出现。这是S曲线的第二个阶段,快速增长阶段。
之后的2008年到2015年间就没有再出现什么类似的巨大突破(至少是在技术方面)。有人会用过去几年的发展来衡量目前的水平,但其实他们忽视了最重要的问题。事实上,另一轮类似于阶段2的井喷式发展正在发生。
3、我们的经验约束了自己对未来的想象。我们往往会根据自己的经验来看待这个世界,我们脑海里也往往有根深蒂固的“事情发展的方式”。但是我们却被自己的大脑(大脑只会用过去的经验来判断未来)禁锢了,通常情况下过去的事情都不能够用来准确预测未来。当我们听到有人预测的未来不符合我们的经验时,往往会下意识地认为这种预测是痴心妄想。
如果我告诉你在这篇文章的后面我会告诉你我们可能会活到150或是200岁,甚至是永远不死,你的下意识反应可能会是,“不可能,历史告诉我们,每个人都会死。”的确,在过去,每个人都会死,但是在飞机发明之前也没有人坐过飞机啊。
所以说,那些认为这一切不可能发生的人如果在看这篇文章,一定要知道自己是错的。事实上,如果我们真正从历史的角度符合逻辑地看待未来,我们就会完全改变自己在过去对未来的预测。
逻辑证明如果这个星球上最先进的种群——人类保持现在的发展速度(甚至更快的难以想象的速度)发展下去,迟早有一天人类会迎来一场巨大的变革,将这个星球上的所有生物都彻底改变,将智力发展到不可想象的地步。如果你了解过现在发生在科学技术领域的各种变化,你就会发现有很多信号表明,现在我们所熟知的生命已经不能承受即将到来的飞跃了。
走向超级大脑
什么是人工智能(AI)?
估计有很多人像我一样曾经认为人工智能是一种愚蠢的科幻概念,但是最近我已经在很多专业人士的口中听到了这个话题,不过或许还有人不是很了解人工智能。
很多人对于AI感到很疑惑的原因主要是以下三点:
一提到AI就会想到电影。从《星球大战》、《终结者》到《2001:太空漫步》,甚至是《摩登家庭》,太多的科幻电影采用了机器人作为主要角色,致使很多人都认为机器人太过科幻。
AI的概念太过宽泛。从手机计算器到自动挡汽车,或是未来某些会对世界产生巨大影响的事物。这些都属于AI范畴,这也使得大家对于这个概念很是疑惑。
我们一直在生活中到处使用着AI,只是没有意识到。约翰·麦卡锡在1956年创造了“人工智能”一词,他认为“一旦它开始发挥作用,就不会再有人叫它AI了。”这一现象的原因是,AI听起来更像是个神话般的未来,而不是现实。
与此同时,AI似乎是个永远不会过时的流行词。库兹韦尔说早在上世纪80年代他就听到人们在谈论AI,但也有人“坚持认为因特网会在21世纪早期的互联网泡沫中破灭”。
让我们梳理一下思路。首先,不要再想到机器人了。机器人只是AI的外壳,有时候模仿人的形态,有时候不模仿,但是AI本身是藏在机器人内部的计算机。AI是大脑,机器人只是身体(如果有的话)。
因为AI是一个宽泛的概念,所以拥有太多的分类。但是我们需要考虑的最重要的几类都是基于AI等级进行分类的。下面是三种主要的AI等级分类:
狭义人工智能(ANI):有时候也叫做低能AI,这是AI在特定领域的运用。可以打败国际象棋世界冠军的AI就是这种,它只会做这一件事,如果让它找出在硬盘存储数据的更好办法时,它会茫然不知所措。
广义人工智能(AGI):有时候也叫做高能AI,或者是近似于人的AI,这种AI指的是几乎和人一样聪明的计算机,它可以像人一样做各种事情。创建一个AGI要比ANI难得多,我们还处在研发阶段。
琳达·哥特佛雷德森教授将智能定义为“一种普通的心理能力,包括解释、计划、解决问题、抽象思考、理解复杂概念、快速学习和经验学习的能力”。AGI可以像人一样拥有这些能力。
人工超智(ASI):牛津大学哲学家和AI领导者尼克·博斯特罗姆将超智定义为“在科学创造力、普适智慧和社会技能等各个领域都比最强人类大脑还要聪明的智能。”
广义上来说,不管是只比人类聪明一点点,还是聪明无数倍,这些计算机都叫做人工超智。这也是为什么AI会是这样一个棘手的议题,“人类不朽”和“人类灭绝”两类词同时频繁出现也是因为ASI。
到目前为止,人类已经征服了AI的最低等级——ANI,而且现在已经被广泛使用。AI变革之路会沿着ANI,到AGI,最后就是ASI,我们可能见到,也可能见不到这样的变革,但是不管怎样,AI变革都会改变一切。
让我们来仔细研究一下那些领导思想家们对于这条变革之路的看法,以及为何AI变革会发展得远快于我们的想象。
我们目前的状况——运用ANI的世界
狭义人工智能是在某一特定领域等于或近似于人类智力的机器智能。下面是几个例子:
汽车上到处都是人工智能,从防抱死刹车计算到燃油喷射系统参数计算。谷歌的自动驾驶汽车现在正在测试阶段,其中包含了完整的ANI系统,该系统可以感知周遭环境。
我们的手机就是一个小型的ANI工厂。当你使用地图应用程序、从Pandora收到定制音乐推荐、检查明天天气、和Siri交谈以及各种其他活动的时候,都是在使用ANI。
当你在亚马逊网站中搜索某样产品时,会发生一系列令人毛骨悚然的事情。在你搜索之后,会在其他网站中看到类似的“推荐产品”;或者是Facebook知道你想要添加谁为好友。这就是ANI系统网络,这些系统会相互合作、相互通知,包括你是谁、你喜欢什么,之后就会选取合适的信息显示给你。
所以亚马逊会有“购买了该产品的人还购买了……”这样的分栏,这就是ANI系统在工作,它会收集数百万消费者的购买信息,在仔细分析信息之后向用户推送相关产品,刺激用户的购买欲望。
前面说的这些只是在日常生活中的ANI。复杂的ANI系统还广泛运用在军事工业、制造业和金融业(AI高频算法计算器负责美国股市一半以上的上市股权计算)等领域。除此之外还有很多技术领域,比如帮助医生诊断病人,还有著名的IBM Watson,能够助力决策者从大量非结构化数据中揭示非凡的洞察,化解危险局面。
现在的ANI系统并不是十分可怕。最坏情况就是,ANI出现问题或是有编程错误会导致灾难出现,比如是电网瘫痪、核电设备故障或是触发经济市场灾难(像是2010年的Flash Crash事件,因为一个ANI程序对一个意外状况的错误反应,导致了股票市场的下跌,造成了1万亿美元市场额的损失,错误修正之后只有一小部分得到恢复)。
虽然ANI不会造成巨大威胁,但是我们应该将这个正处在迅速发展的相对无害的ANI看做是改变世界变革的先驱。每一次ANI创新都是在向AGI和ASI的发展添砖加瓦。或是像亚纶恩斯所说的那样,如今的ANI系统“就像是地球处在原始状态时的氨基酸”,是一种没有生命的东西,但是突然有一天,它就醒了。
从ANI到AGI
为什么困难重重?
没有什么可以像学习如何创建一个像我们人脑一样聪明的计算机这样地令人激动。建造摩天大楼、进入太空、探寻大爆炸发生的原因——这些事情都远比了解我们自己的大脑要容易得多。到目前为止,人类的大脑是宇宙中已知的最为复杂的对象。
有趣的是,创建AGI(近似于人脑一样聪明,而且不局限于特定的领域)最难的部分不是我们凭直觉想象的那样。创建一台可以在一瞬间生成两个十位数的计算机很容易。创建一台可以分辨猫狗的计算机就很难了。创建可以打败人类的象棋AI?已经做到了。创建一个可以理解6岁孩子图画书上内容的AI?谷歌正在花费数百万美金进行研发。
我们认为困难的部分——比如说微积分、金融市场策略和语言翻译——这些对于计算机来说相对容易,但是我们觉得很简单的部分——视觉、手势、移动和知觉——这些对于AI来说就很难。或者像是计算机科学家唐纳德·克努特所说,“AI发展到现在已经可以完成‘需要思考’的任何事了,但是却不能完成人和动物都可以做到的‘不需要思考’的大多数事情。”
想到这里,你应该很快意识到了一个问题,那就是对于我们来说十分简单的事情其实有着难以想象的复杂性,之所以简单只是因为这些技能在人类和许多动物经过千百年来的进化过程之后变得与生俱来了。
当你伸出手拿东西的时候,你的肌肉、肌腱、肩膀上的骨头、肘关节都在执行一系列的物理操作,连同你的眼睛让你在三个维度准确移动,似乎整个过程是毫不费力的,但其实是因为你的大脑已经完全完善了这一软件。这也是为什么你在注册一个新网站账号的时候可以顺利通过验证码——你的大脑对于这样的操作太过熟悉。
从另一个角度来说,计算大数字相乘或是下棋都是生物的新活动,我们还没有通过进化过程精通它们,所以计算机只要稍加努力就可以击败我们。想想吧,你更愿意选择哪个,创建一个可以计算大数字相乘的程序还是创建一个可以识别各种字体字母的程序?
下面是一个有趣的例子——你和计算机都可以识别出这是一个具有两种色调的矩形交替:
目前为止人和电脑和电脑的反应都是一样的,但是如果你去掉黑色并显示完整图像……
……你可以轻松描述这些东西,透明或者不透明的圆柱体、长方体或是三维的角落,但是计算机会完全失败。它会描述它所看到的东西——不同色调不同形状的二维图形——当然它说的也没错。
你的大脑内部有无数的识别程序,什么样的深度、什么样的颜色并且会在脑中虚拟出图片中物品的样子。看下面这张图,计算机会看到一个二维黑白灰三色的拼接,而你可以很容易地看出这是完全黑色的一块三维岩石的图片:
这些还都只是在处理静态信息。要想达到人工智能水平,计算机要学会理解事情间的微妙关系,比如说各种表情变化,高兴、放松、满足和开心之间的细微差别,这也是为什么《勇敢的心》这么出色,可是爱国者导弹却那么糟糕了。
这一切都那么的令人生畏。
所以怎么样才能达到那样的水平呢?
创建AGI的第一步:增强计算机能力
如果想要创建AGI,首先必须要做的事情就是增强计算机硬盘能力。如果一个AI系统想要和人脑一样智能,就必须要和人脑的原始计算能力相当。
表达这种能力的一种方式就是大脑每秒可管理的计算总量(CPS),计算方式是将大脑各部分的cps最大值相加。
库兹韦尔想出了一种估测CPS的快捷方法,那就是算出某人大脑某一结构的CPS和该结构的质量之比,然后用整个大脑的质量乘以该比例,借此来估计总的CPS值。听起来似乎有点玄乎,但是他用这一方法测试了多个人的CPS和专业测试的CPS值进行比较,结果大致相同,大概是10千万亿个CPS。
目前世界上最快的超级计算机中国天河2号其实已经击败了这个数字,实际上达到了34千万亿个CPS。但是天河2号太大了,占地面积720平方米、使用24兆瓦的电力(大脑才使用20瓦电力),并且耗资3.9亿美金。所以根本不适合广泛使用,甚至是商业和工业用途也不可行。
库兹韦尔建议我们用1000美金可以购买多少CPS来衡量一台计算机的性能状态。等到1000美金可以购买10千万亿CPS(也就是人类大脑水平)的时候,就意味着AGI可以进入日常生活了。
摩尔定律是很可靠的一个定理,定律表明世界上最大的计算能力每两年增加一倍,这就意味着计算机硬件水平就像人类进步水平一样呈指数增长。根据库兹韦尔的CPS/$1000度量方法,我们现在的水平是10兆/$1000,发展水平大概是图片所示的这样:
所以说现在可以用1000美金买到的电脑完全能够打败一只老鼠的大脑,大概是人脑的一千分之一。这样的数字听起来似乎很小,但是我们应该考虑到在1985年的时候这个数字是一万亿分之一,1995年的时候是十亿分之一,2005年是一百万分之一。现在2015年是一千分之一,按照这个步伐,到2025年就可以达到人脑水平了。
在硬件方面也是这样,现在已经可以提供AGI所需的原动力了。中国十年内就可以制造出可负担的、广泛运用的AGI硬件。但是独立的原始计算能力还不足以使得计算机达到一般智能化,所以接下来的问题就是我们如何使得计算机能力达到需要的水平?
创建AGI的第二个关键:让它变聪明
这部分让人很头疼。事实就是没有人真正知道该怎样使AI变聪明,我们还在争辩如何让一台计算机和人一样聪明,可以识别猫狗和随意写下的字母。但是已经有人想出了一些很牵强却有可能行之有效的方法。下面是我知道的三种最常见的方法:
1)复制大脑。
我们一直在试图创建一台极为复杂的计算机,但其实完美的原型就在我们每个人的脑袋里。
科学家们正在努力对人脑进行反向工程,想要探寻自然进化是如何使得大脑可以完成如此复杂工作的。乐观估计,到2030年我们就可以完成这一工作。一旦我们做到了这一点,我们就会知道大脑如此强劲有效运行的秘密,然后从中汲取灵感。
一种模仿大脑的计算机结构就是人工神经网络,开始的时候网络中都是晶体管“神经元”,它们相互连接来输入输出,现在它一无所知——就像是刚出生的婴儿大脑;它会在完成任务的过程中“学习”;经过大量的类似判断和反馈,这个网络本身会形成完成这一任务的最优化途径。人脑的学习过程也类似于这样,但是会更复杂一点,随着我们对人脑的进一步研究,也许会发现利用神经回路的新方法。
更极端的复制是一个被称为“全脑仿造”的战略,目标是将真正的人脑切成薄层、逐层扫描,使用软件组装出一个准确重建的三维模型,然后在功能强大的计算机上执行模型。这样我们就会拥有一台电脑能够真正拥有人脑的一切能力——它要做的就只是学习和收集信息。
如果工程师足够厉害的话,这样的计算机将准确模仿人脑,只要脑部结构被上传到计算机中,其完整人格和内存容量就会得到准确呈现。比如说说Jim的大脑在他死之前都是Jim的,死之后计算机就会作为Jim继续存在,这将是超级水平的AGI,之后我们就可以逐步发展将其变为难以想象的超智能ASI了。
要想实现整个大脑的仿真还有多久呢?到目前为止,我们刚刚能做的只是仿效1毫米长的扁形虫大脑,其中包含了302个总神经元,而人脑大概包含1000亿个。或许这样的比较让未来看起来毫无希望,但是你要相信指数的力量。现在我们已经征服了扁形虫,不久之后就可以征服蚂蚁,然后是老鼠,之后你会突然发现,人脑也不是不可能。
2)利用进化过程
如果我们觉得直接抄袭那个聪明孩子的试卷太难,那我们可以尝试复制他的学习方法。
我们已知的就是创建一个和人脑一样聪明的计算机是可能的——我们自己的大脑就是最好的证明。如果直接复制大脑太过复杂,那我们可以试着复制它的进化过程。事实上就算我们可以复制大脑,那么也会像是我们为了发明飞机而复制鸟翼扑打一样——通常情况下,最好的机器设计的方法一般是创新的、面向机器的方法,而不是完全模仿生物。
所以说具体的做法到底是怎样的呢?这种方法被称为“遗传算法”,工作原理是这样的:进行无数次的绩效评估过程(和生物生活、改造环境是一样的)。一组计算机会同时尝试完成某一任务,然后将成功完成的那些的程序重组融合成一台新电脑。不太成功的那些会被淘汰。
经过很多次的迭代之后,就会自然选择出更好的计算机。对于我们来说,挑战就在于如何建立可以自动化运行的评价筛选机制。
复制进化的缺点就是自然进化花费了10亿年的时候,而我们想要在几十年的时间里完成。
但是我们有很多优势。首先,自然进化没有预见性,随机性很强——所以会生成无益突变,但是我们可以控制整个过程,使它只能生成有益的、针对性的“下一代”;
其次,自然进化没有目的性(包括智力),有时候环境选择甚至会淘汰高智商(因为高智商会消耗更多的能量)。而我们可以将进化过程针对于提高智商。第三,要想在自然进化中提高智力,就必须要改变很多方面来为其让路——比如说改造细胞产生能量的方式。而我们就不需要这么麻烦,我们可以用电。
毫无疑问,在进化方面我们会快得多,但是还不确定我们是否可以使用这种进化法来实行这一策略。
3)让计算机自己完成这一切
当科学家感到沮丧并尝试编写测试程序时,这或许就是我们犯的最大的错误。
真正的想法是,我们建造一台计算机,它的两个主要技能就是在研究AI并且改造AI——让它不仅能学习,更会自己提高自己的体系结构。我们要教会计算机成为计算机专家,这样它们就可以引导自己的发展,它们的主要工作就是让自己变得更聪明。之后会具体阐述这一观点。
所有这些都会很快成为现实
硬件和创新性软件的迅猛发展让AGI短期内成为现实主要有以下两个原因:
1)指数增长的速度是不可想象的,看起来似乎是蜗牛,其实跑得飞快。下面一个动画可以很好地解释这一概念:
2)软件的发展似乎有些缓慢,但是只要灵光一现之后发展速度就会被立刻改变(就像是科学进步的步伐,人类信奉地心说的时候一切都像是停滞了,但是一旦改换成日心说之后宇宙运作等原理就立刻柳暗花明了)。换句话说,想要创建一台可以自我提升的计算机似乎看起来很难,但实际上只要出现一次转机,那么一切都会以1000倍于现在的速度发展起来,越来越靠近人脑。
从AGI到ASI
我们将达到ASI定义为——具有和人一样智力水平的电脑。到那时就是一堆人和一堆电脑生活在一起的世界。
不过事实上完全不是这样。
真实情况就是和人具有同等水平智力和计算能力的AGI会比人有着更为显著的优势。比如说:
硬件:
速度。人脑的神经元的最大输出速度大概是200Hz,而今天的微处理器(远低于未来的AGI)可以达到的速度是2GHz,比人脑神经元快10万倍。还有,人脑的内部通信速度大概是120m/s,但是计算机的这一速度可以达到光速。
大小和存储容量。人类的头骨将人脑限定在一定的大小范围内,不管怎么说这一点是不可改变的;就算改变了,120m/s的速度也会让不同脑结构之间的交互变的更慢。相比之下,计算机可以变成任意大小形状来容纳更多的硬件。工作内存(RAM)和长时记忆(硬盘存储)都会远远超过人脑的容量和精确度。
可靠性和耐用性。计算机除了拥有更加精确的记忆功能之外,用于计算的晶体管也比生物神经元更加准确,而且出故障的可能性也几乎为零(如果真的坏掉,也可以进行修复或更换)。同时,人脑容易疲劳,而计算机却可以以最佳性能永不停歇地运转。
软件:
可编辑、可升级、拥有更多的可能性。计算机软件不同于人脑,它可以轻松接收更新和修复,而且很容易做相关实验。升级功能可以优化人脑的薄弱点。人类的视觉软件十分先进,但是处理复杂工作的能力却很低端。计算机可以在视觉软件方面赶上人类,同时也可以优化处理能力和任何其他能力。
收集能力。人类庞大的智慧体系碾压了其他所有物种。首先是语言的发明、大而密集团体的形成,然后发明书写和印刷术,到现在利用互联网这类工具继续推进发展人类智慧,人类会集合所有人的智慧是我们之所以能超越其他物种的原因。
而计算机会做得比我们更好,运行某个特殊程序的AI可以在全球网络范围内定期同步,任何一台电脑上的任何行为都会被上传到这个网络中去。整个团体会作为有着同一个目标的整体,因为它们不会像人一样拥有个人的不同意见、动机和个人兴趣。
编写自我提升的程序可以帮助AI变成AGI,但是“变得和人类一样聪明”绝不是AI的重要里程碑,而只是从我们角度来看的一个标记,没有任何理由相信AI会在这一水平就此停下脚步。鉴于AGI相较于人类而言的各种优势,打败人类只是前进路上的一个过程,最终目标会是达到超智水平。
我们可能会被这样的局面吓倒。从人类的角度来看原因有二:a)虽然不同种类的生物拥有不同的智慧,但是我们之所以知道这些动物的特点所在是因为动物的智慧远低于人类智慧;b)我们认为聪明人比笨蛋聪明的地方就在于处理事情的方式不同,就像这样:
所以当AI在向人类智慧靠近的过程中,我们会把这一过程看做它在变聪明(就像看一个动物一样);当AI达到人类智慧的最低点的时候——就像尼克·博斯特罗姆使用了“傻帽”一词——我们会这样说“看呐,这是个傻帽耶!”关键问题是,从傻帽到爱因斯坦,他们的智慧都只存在于一个很小的范围内。只要有人称呼AI为傻帽,那么它会在我们不知道的时候突然就变成爱因斯坦:
在那之后会发生什么呢?
知识大爆炸
我希望所有读者都会喜欢之前所有的铺垫,因为从现在开始话题会变得不同寻常了。在这里我要暂停来提醒你们,我要说的每一件事都是真实的,是最受尊敬的思想家和科学家站在宏观角度做出的真正科学的对未来的预测。要牢记这一点。
不管怎么说,正如我上文提到的那样,我们现在能想到的将AI变成AGI的过程都是靠它自己的不断改进。即便是原来没有包含自我改进的方法,一旦达到AGI水平,它们就会按照自己的想法不断改进自己。
这就是令我们恐慌的概念——递归式的自我完善。工作原理就像这样:
某一特定级别的AI系统——比如说是人类世界里的傻帽——其编程目标是提高自身智力。一旦开始运行,它就会变得越来越聪明——有可能达到爱因斯坦级别——到了那个时候想要做出更大的进步就变得更容易了。随着进步变得越来越大、发生的越来越快,AGI很快就会达到超智水平,也就变成了ASI。这就是所谓的知识大爆炸,也是加速回报法则的终极状态。
关于AI何时能达到人脑水平,学术界还存在争辩。根据数百名科学家的预测数字做出的中位数来看,这一年份是2040年——距今只有25年时间,听起来似乎不算是太快,但是许多AI领域的思想家都认为AGI到ASI的过渡会发生的非常快。就像是这样:
从最开始出现AI系统,发展到低智力水平可能需要几十年时间,但是这终将发生。这时候的电脑理解周围事物的能力可以达到4岁儿童的水平。突然,达到这一里程碑之后的一小时内系统就会迸出伟大的统一广义相对论和量子力学,甚至是人类迄今为止还不能理解的物理理论。90分钟之后,AI就会变成ASI,这个系统会比人类聪明17万倍。
到那时,这种超智水平已经是人类无法控制的了,就像是一只大黄峰环绕着凯恩斯经济学家的脑袋,但却无计可施。在人类世界里,聪明意味着IQ130,傻瓜意味着IQ85——我们甚至不会想到会有IQ达到12952。
我们所知道的是人类在这个地球上的统治地位有着一条明确的规则——智商带来权力。这就意味着一旦ASI出现,它就会成为这个地球历史上最为强大的存在,所有生物,包括人类在内,都将被它统治——而这一切可能在几十年内发生。
如果我们人类这种水平的智商可以发明WIFI,这就意味着比我们聪明100、1000或1亿倍的ASI完全可以随时控制这个世界上它喜欢的每一个原子的位置——任何我们能想到的魔法力量,每一种能力的最高阶,将会成为ASI的日常。
开发出各种技术扭转人类衰老、治疗疾病,消灭饥饿、甚至死亡;改变天气来保护地球生物的未来,这些都将不是问题。不过那一时刻也有可能是地球上所有生命的终结。就我们而言,如果ASI成为现实,那它就是现实世界里万能的神——留给我们最重要的问题就是:
它会是一位善良的神吗?
号外 !今晚大咖说直播!
适合用美国总部面试,也适用于国内分部
主播:覃超和神秘嘉宾
(覃超,峰瑞资本技术合伙人、前Facebook早期工程师)
时间:9月30日 21:30
直播间:熊猫TV,关注InfoQ,回复「覃超」获得房间号
▽
延展阅读(点击标题):
喜欢我们的会点赞,爱我们的会分享!