专栏名称: Dance with GenAI
关于生成式人工智能AIGC的一切
目录
相关文章推荐
51好读  ›  专栏  ›  Dance with GenAI

读书笔记之《超级智能》

Dance with GenAI  · 公众号  ·  · 2024-12-22 09:54

正文

《超级智能:路线图、危险性与应对策略》(Superintelligence : Paths, Dangers, Strategies)这本书由尼克·波斯特洛姆所著,深入探讨了人工智能(AI)的发展可能带来的超级智能现象,以及这一现象对人类社会和文明的潜在影响。

尼克‧波斯特洛姆Nick Bostrom:全球著名思想家,牛津大学人类未来研究院的院长,哲学家和超人类主义学家。其学术背景包括物理、计算机科学、数理逻辑以及哲学,著有大约200种出版物,已经被翻译成22种语言。曾获得尤金‧甘农(Eugene R. Gannon)奖(该奖项的获得者每年只有一名,他们来自哲学、数学、艺术和其他人文学科与自然科学领域)。

序:如果有一天我们发明了超越人类大脑一般智能的机器大脑,那么这种超级智能将会非常强大。并且,正如现在大猩猩的命运更多地取决于人类而不是它们自身一样,人类的命运将取决于超级智能机器。然而我们拥有一项优势:我们清楚地知道如何制造超级智能机器。原则上,我们能够制造一种保护人类价值的超级智能,当然,我们也有足够的理由这么做。实际上,控制问题—也就是如何控制超级智能,似乎非常困难,而且我们似乎也只有一次机会。一旦不友好的超级智能出现,它就会阻止我们将其替换或者更改其偏好设置,而我们的命运就因此被锁定了。在本书中,我将努力诠释可能出现的超级智能带来的挑战,以及我们如何更好地应对。这很可能是人类面对的最重要和最可怕的挑战。而且,不管我们成功还是失败,这大概都是我们将要面对的最后一个挑战。

第一章 人工智能:昨日成就与今日现状

回顾了人工智能的发展历程,从早期的成就到当前的发展现状,讨论了AI技术的进步对社会的影响。

人们以前总以为要下好国际象棋,就要理解抽象概念、精通谋略、灵活组合棋步、广泛地使用逻辑推演,甚至要能猜透对手在想什么。但事实并非如此。结果证明,建立在特定目的算法基础上的机器就能够把国际象棋玩得很好。20世纪末有了快速中央处理器时,计算机就能够把国际象棋玩得出神入化了。但是这种人工智能也有个缺陷,就是它只能玩国际象棋,而做不了其他事

波斯特洛姆认为,尽管AI技术取得了显著进展,但超级智能的出现将是一个质的飞跃,可能带来前所未有的挑战。

第二章 通往超级智能之路

分析了实现超级智能的可能路径,包括人工智能、全脑仿真、生物认知、人机交互,以及网络和组织技术发展等。

超级智能的定义:在几乎所有领域远远超过人类的认知能力

递归性自我改良(recursive selfimprovement):成功的种子人工智能能够反复地自我改良,一个早期的版本可以设计一个自我改良后的新版本,接着,自我改良后的版本(比初代更加智能的二代)可能设计一个更加智能的版本,以此类推。在某种条件下,迭代改良的过程延续了足够长的时间后,终将产生一场智能爆发—这场爆发也许是一瞬间完成的,此时系统的智能水平会由中等迅速达到超级智能的程度(或许此时系统的智能水平还低于人类,但在编程和人工智能探索领域已占有主导地位)。

作者认为,超级智能的实现可能通过多种途径,每种途径都有其优势和风险。

第三章 超级智能的形式

探讨了超级智能可能的表现形式,包括高速超级智能、集体超级智能和素质超级智能。

—高速超级智能是指和人脑相似,但速度快于人脑的智能。

—集体超级智能是指一种通过将总数庞大的小型智能集中起来,从而达到卓越性能的系统智能。

—素质超级智能是指一个至少和人类大脑一样快,并且从素质上来说更加聪明的智能

波斯特洛姆强调,不同形式的超级智能将对人类社会产生不同的影响,我们需要对这些形式有深入的理解。

第四章 智能大爆发的动力学

分析了智能大爆发的动力学,即智能发展的速度和加速度。

作者认为,智能大爆发可能会导致人类社会的快速变革,这种变革可能是突然的,也可能是渐进的。

第五章 决定性战略优势

讨论了在超级智能发展中,如何获得和维持战略优势。

波斯特洛姆指出,第一个达到超级智能的实体可能会获得决定性的战略优势,这可能导致全球性的权力结构变化。

第六章 超级认知能力

探讨了超级智能可能具备的认知能力,以及这些能力如何影响其决策和行动。

作者认为,超级智能的认知能力将远超人类,这可能导致其在战略规划和资源控制方面具有压倒性优势。

我们对“聪明”和“愚蠢”的直觉性观念来自于对不同的人类思考者的观察;然而,在人类与超级智能的差别面前,人类内部的认知能力差别是微不足道的。衡量超级智能与人类智能的差距时,不能认为两者的智能差距相当于科学天才与普通人的差距,而可以大概认为,其差距相当于普通人与甲虫或蠕虫的智能差距。

第七章 超级智能的意愿

分析了超级智能的目标和意愿,以及这些目标如何影响其行为。

波斯特洛姆强调,超级智能的目标可能与人类的目标不一致,这可能导致冲突。

第八章 结局注定是厄运吗?

探讨了超级智能发展可能带来的最坏情况,包括对人类文明的威胁。

作者认为,虽然存在风险,但通过适当的策略和预防措施,可以避免最坏的结果。

曲别针人工智能:一个人工智能被设置为管理工厂的生产,其最终目标是使曲别针的产量最大化,反而走上了首先将地球、然后将整个可观察宇宙的大部分都变成曲别针的道路。生产出来的曲别针中的一部分是我们想要的结果;危害要么来自于用来生产曲别针的工厂(基础设施过量),要么来自于曲别针过量(反常目标实现方式)。你可能会想,基础设施过量的恶性失败模式只会出现在人工智能被给予了某种没有限制的最终目标时,比如生产尽可能多的曲别针。很容易看出,这会让超级人工智能具有无法满足的胃口,去不断获取物质和能力,因为更多的资源总能转化成更多的曲别针。

第九章 控制问题

讨论了如何控制超级智能,以确保其行为符合人类的利益。

波斯特洛姆认为,控制超级智能是一个复杂的挑战,需要深入的技术和社会策略。

第十章 神谕,精灵,主权,工具

分析了不同类型的超级智能实体,以及它们如何与人类社会互动。

作者认为,不同类型的超级智能需要不同的管理和控制策略。

第十一章 多极情景

探讨了在多个超级智能实体并存的情况下可能出现的情景。

波斯特洛姆指出,多极情景可能导致复杂的国际关系和权力斗争。

人类和马匹的最大区别就是人类拥有资本。一个典型的现实经验是,大约30%的资本要素在长期看来是较稳定的(虽然有较大的短期波动)。这意味着全球30%的收入是被资本家收入囊中的,而剩下的70%作为工人的工资。如果我们把人工智能作为资本,那么机器智能可以完全替代人类工作,工资就会下降到这种机器替代物的边际成本水平,在机器的效率非常高的前提下,工资会非常低,大大地低于人类生存所需的收入水平。那时劳动者的收入将会下降到几乎为零,同时也意味着资本所占比例的收益将几乎达到100%。由于世界GDP将在即将到来的智能爆发中迅猛发展(由于替代人类劳动的新机器的大量出现和超级智能带来的技术进步,以及之后对外太空领域的殖民拓展),随之而来的资本总收入也将大大提高。如果人类持续拥有这些资本,那么人类人口的总收入将有天文数字般的增长,尽管在这种情况下,人们将不再有任何工资收益。







请到「今天看啥」查看全文