我们现在的处境就像,一个人拥有了一只非常可爱的老虎幼崽。老虎幼崽是个很棒的宠物,但你最好确定它长大后,它永远不想杀你。
文丨FT中文网专栏作家 刘远举
近日,诺贝尔奖得主,AI教父辛顿在一个访谈中提到:“有些人工智能研究者,比如杨立昆,他是我的朋友,也是我的博士后,他说人工智能取代人类绝无可能,根本不用担心。别信他的。当AI比我们更聪明时,会发生什么,我们无从知晓。这完全是未知的领域。
还有其他的AI研究者,比如尤迪克夫斯基,他其实不算真正的AI研究者,但他对AI很了解。他说有99%的可能性,它们会取代我们。他甚至说99.9%,而正确的策略是现在轰炸数据中心,这个观点在大公司可不怎么受欢迎。这也太疯狂了。
当我们处理比我们更智能的事物时,会发现我们正进入一个充满巨大不确定性的时代,我们不知道将会发生什么。我们在创造它们,所以现在我们拥有很大的权力,但我们不知道将来会怎样。人们非常聪明,我们很可能找到一种方法,让它们永远不想控制我们。因为如果它们想控制我们,只要它们更聪明,它们完全可以轻松做到。所以我认为我们现在的处境就像,一个人拥有了一只非常可爱的老虎幼崽。老虎幼崽是个很棒的宠物,但你最好确定它长大后,它永远不想杀你。如果你确定这一点,那就没问题。”
在我看来,辛顿的看法是错的。或许你要说,凭什么你质疑AI教父的看法。科学不讲权威,讲道理,不妨听我说下去。
我觉得,杨立昆可能是错的,尤迪克夫斯基可能是对的,AI很可能取代人。这与AI是否会有意识无关,去判断AI是否有意识,是没有意义的事。但AI会比人聪明是大概率的。
你能不能驾驭一个比你聪明的人?很难。将来人类很可能是驾驭不了AI的。AI和以前的机器不一样,与核能这些机器不一样,虽然这些发明也是有利有弊的,但是这些发明都是完全被动的,可以被关闭的。但AI具有某种程度上的客观上的主体性、能动性,可能无法被关闭。比如,当人类把武器系统,以及背后的生产系统,乃至整个物质系统,都交给AI后,AI可能“主动地”反过来消灭人类。
但是应该看到的是,一种危险的速度与后果是相关的。巨大的危害总是迫切的,因为速度让人猝不及防,后果才不可挽回,而缓慢的危害,总是能够解决的,因此相对威胁也不大。现在离人类把自己的一切交给AI还早。
更进一步的,即便人类一切都交给AI了,AI也替代人类了,辛顿的担忧也是没有必要的。
AI短时间内暴力化地消灭人类,当然是不可接受的。但真实的情况可能更复杂、更缓和。不妨设想一下,最初,可能是一对年轻夫妻购买了一只AI 宠物。他们非常喜欢,情感深厚。他们没有孩子,当他们老了,需要人照顾,就升级了这个宠物,把它变为了人形。再比如,一个年轻女子爱上了一个英俊的人形机器人,共同生活,他们当然不会有孩子,但却有一个AI孩子。这个人类女子并不觉得这是一个遗憾。
在辛顿的观念中,人类如此和平地消亡,也应该是不可接受的。辛顿的判断,源于一种非常常见的,贯穿于整个人类历史方方面面、各个层级的一种东西:共同体意识。
人类社会总有群己之分。人总在确定自己属于某个共同体。家庭、家族、同事,再往上是社区、老乡、户籍,再往上是民族、国家、性别。共同体意识是人类社会的普遍现象,但很多共同体意识,是虚幻的。实际上,从来都没有真实地存在过,也是没有必要的。
先看处于同一时空的共同体。越小的共同体,越真实、但相对不那么稳定。比如,家庭、公司,作为利益共同体很真实,可以给人带来直接的利益,但离婚了、离职了,共同体就解散了。
越大的共同体,越不真实,但相对稳定。比如,由性别差异产生的共同体,男性共同体或者女性共同体。这个共同体很大,但个体很少直接从这个共同体得到利益。女性或男性也不会为了所谓性别共同体,劝自己的配偶在升职的时候,让给异性同事。但总体来说,这个共同体很稳定,不会消失。
但再稳定的共同体,都经不起时间的冲刷。我们再看跨越时间的共同体意识。家族传承,是一个跨越时间的共同体,最典型的是皇帝的共同体意识,基于血缘的权力传递,但几百年后的事情,和皇帝本人毫无关系。共同体一直是人类政治中的执念,但实际上,共同体很多时候都是不稳定的。斯大林和赫鲁晓夫的共同体意识,仅仅在斯大林去世三年之后,就毫无意义。任何皇帝和2000年后的后代共情,也是一种执念。普通人其实也是一样。一个人会担心自己的孩子、孙子,甚至作为概念上的“孙子的孙子”,这是可以理解的,但担心2000年后自己的基因是否存续,只是一种执念而已。
这种人死万事空的论证,虽然也是无可辩驳的,但这种形而上的哲学论证,似乎不能令人满意。那不妨从另一个角度论述。
同一时空中的人类共同体意识,其实很有限,不然人类社会就不会有那么多战争。从更长期的历史来看,人类共同体更是有限的,因为人类社会、人类价值在历史场合中会不断变化,人的概念也在变化。
人类价值、人类社会,人的概念,既然是变化的,那么当从几百年,上万年去看人类共同体,就必然涉及到一个问题:人类本质。
人的本质是什么?是身体吗?身体只是忒修斯之船。那么人类的本质是人类的基因吗?
2015年12月的美国国家科学院基因编辑峰会期间,哈佛大学遗传学家Dan MacArthur在推特上写道,“预测:我的孙子将会是进行过胚胎筛查和基因编辑的。这不会‘改变人类的定义’,而是像接种疫苗一样。”
人有了智能,进化就不必仅仅依靠自然选择,人工修改的基因,仍然是人。修改基因这种“外部进化”,虽然发生在身体之外,但用智能改造基因,符合基因进化的方向,也即自组织的热力学方向:低熵、高能量、高精度。这就指向了高智能,即通过高智能来获得低熵、高能量和高精度。人体就是一套热力学系统,智能是大脑里的低熵组织。
所以人的本质不是基因,而是意识和智能。实际上作为一种无法证明的东西,也即心理学上所谓的私有性,意识、自我意识,其实都是没有意义的。有意义的只是对信息的处理。人的本质是对信息的处理。
从更长期的存续来说,文明的稳定度与文明在宇宙中的尺度规模有关,而人类,或者说意识、智能要扩散出太阳系,碳基未必是一个好的选择。
所以谈到人类存续方式时,到了本质的层面,硅基碳基,并没有太大的质的区别。这就像计算机,用软盘引导,然后固态硬盘、内存接管。虽然信息记录系统,从磁基变换到了基于电子,但本质是一样的,但更加优越。
所以只要能达到低熵、高能量和高精度,硅基取代碳基未必不是好的。把共同体意识固执在肉体、大脑、基因上,就是一种执念了。辛顿是AI大咖,但并不是哲学家,他对人类本质,人类共同体的看法可能会错。
所以,防备AI取代人,源于人类共同体的执念。我死后哪管它大浪滔天,是不对的。但是,要忧虑我死后三万年,放弃当下的AI发展,既不是理性的,也是不实际的。实际上,这是一个反讽:如果硅基比碳基有优势,哪怕危险再大,因为人类共同体意识有限,所以,为了自己的私利,一定有人会发展AI,导致碳基人类的消亡。