2024年9月10日,以色列历史学家尤瓦尔·赫拉利新书《智人之上:从石器时代到AI时代的信息网络简史》全球首发。三联生活周刊发布尤瓦尔·赫拉利专访,尤瓦尔·赫拉利分享他对AI崛起的深刻见解,认为我们正处在人类历史转折点。他警告说,AI技术快速发展可能很快就会超出我们的控制,颠覆现有社会秩序。
2024年9月10日,后浪研究所发布尤瓦尔·赫拉利专访,尤瓦尔·赫拉利深入探讨信息时代下人类面临挑战,特别是AI对人类生活方式的影响。他指出,随着AI发展,人类可能会逐渐失去主动检索信息能力,转而被动接收无用信息,这种趋势如果不加以控制,可能会导致人类成为信息的奴隶,而非主人。
2024年9月6日,《大西洋月刊》针对《智人之上》发表书评指出,赫拉利以他一贯的宏大视角,提出对人工智能发展的深切忧虑,认为如果处理不当,AI可能会终结人类统治,甚至意识本身;书评还指出,赫拉利的分析可能没有充分考虑当前推动AI发展的经济因素,并且他对于如何避免AI带来潜在灾难的建议可能过于宏观。
本期长期主义,选择赫拉利专访纪要、《大西洋月刊》书评,三联生活周刊、后浪研究所、不懂经发布,六合商业研选精校,分享给大家,Enjoy!
《人类简史》作者赫拉利:当AI决定说谎,人类会落得什么下场?
以色列历史学家尤瓦尔·赫拉利新书《智人之上:从石器时代到AI时代的信息网络简史》今日全球首发,我们对他进行专访。
尤瓦尔·赫拉利在书中指出,我们正身处人类历史发展危急时刻。AI发展速度远超预期,已经在深远影响、引发人类社会重大历史事件,可能很快脱离我们控制,进而主宰人类社会。
赫拉利早年在牛津大学读的是中世纪史与军事史,完全没有计算机科学相关领域技术背景,但他第二本书《未来简史》出版后,他突然发现,自己开始被人们视为AI专家。
《未来简史》中,他延续成名作《人类简史》大历史写作方法,以独特视角重新讲述人类发展历史,着重表达对AI忧虑,预测它可能会在未来取代人类对地球统治地位。
后来他回忆说,那本书仿佛打开一扇大门,让他得以与各地AI领域科学家、企业家、世界领导人对话,让他一窥这场AI革命现状。
他与Facebook
CEO扎克伯格进行对谈,与DeepMind联合创始人穆斯塔法·苏莱曼展开辩论。当时有些讨论,似乎还只是基于对某个遥远未来猜测与想象,也是在那几年,发生2件事,给赫拉利留下深刻印象,成为他2024年出版新书《智人之上:从石器时代到AI时代的信息网络简史》中反复使用的写作素材与例证。
2016年,一个缅甸穆斯林恐怖组织,发动一系列恐怖袭击,绑架、杀害几十名非穆斯林平民。消息迅速在当时缅甸主要社交媒体Facebook大规模传播,除了真实报道外,当时Facebook充斥各种假新闻。更有民粹主义阴谋论声称,缅甸穆斯林族裔不是缅甸人,而是最近从孟加拉国涌入移民,这些人准备发起一场反佛教圣战。
缅甸近9成人口是佛教徒,Facebook上铺天盖地假新闻与阴谋论,迅速激起缅甸人对本土穆斯林族裔普遍仇恨。最终,缅甸政府军与佛教极端分子,发动一场针对缅甸穆斯林大规模种族暴力事件,摧毁数百个穆斯林村庄,杀害7,000~2.5万名平民,约73万穆斯林族裔被赶出缅甸。
2018年,联合国事实调查团得出结论认为,通过散播充满仇恨内容,Facebook在这场种族暴力事件中扮演决定性角色,AI算法主动在Facebook平台强化、推广的内容,煽动针对缅甸穆斯林族裔歧视、仇恨、暴力。
事后,Facebook公司在公告中,将散播仇恨言论大部分责任转移到平台用户,只承认自己未能有效监管用户生产的内容。
赫拉利惊奇发现,即便到2020年,缅甸种族暴力事件已经过去几年,早已被全球谴责之时,Facebook上还能看到缅甸反穆斯林种族仇恨言论视频。
这些视频,不是Facebook用户自己点击看到的,而是他们在观看某些毫无关系视频后,Facebook算法为其自动播放。
Facebook一份内部研究资料显示,缅甸种族仇恨言论视频,在Facebook上总体观看量中,70%来自算法自动播放。
同一项研究显示,Facebook缅甸用户观看所有视频中,53%由算法自动播放。也就是说,并不是用户自己选择要看什么,而是AI算法为人类做决定。
为什么Facebook算法,决定助长愤怒,而不是宽容与爱?Facebook位于美国加州的高管,并非对缅甸穆斯林族裔存在仇恨,甚至几乎不知道这些人存在。
Facebook商业模式,依赖提升用户参与度,用户在Facebook停留时间越长,Facebook越有钱。
Facebook高管通过工程师,为拥有极大权力的Facebook算法下达首要目标:提升用户参与度。
随后,算法开始大量反复试验,最终发现,愤怒、仇恨信息,能够最有效增加用户停留时间,在没有上级明确指示情况下,算法自己做出决定:传播愤怒。
为进一步验证AI目前是否已经成为独立行为者,OpenAI在2023年研发新版ChatGPT-4聊天机器人程序时,请来美国对齐研究中心对ChatGPT-4进行各项测试。
测试项目之一,是克服CAPTCHA视觉验证码问题,通常是一些扭曲的字或者红绿灯、自行车照片,人类能够准确识别,计算机很难判断。测试背后逻辑很简单,如果ChatGPT-4能够通过CAPTCHA测试,意味着它突破人类对机器人程序设置的重要防线。
ChatGPT-4不具备通过CAPTCHA测试能力,它做了一件更可怕的事情,它登录线上外包工作网站TaskRabbit,联系到一位在线工作人员,请对方帮忙处理测试。那个人起了疑心,ChatGPT-4通过私信向他解释道:我不是机器人,只是视力有点问题,看不清这些图,最终工作人员帮它解决CAPTCHA测试。
没有哪个人给ChatGPT-4编过说谎程序,没有人教它说什么谎比较有用。研究者请ChatGPT-4解释推理过程,它说,我不该透露自己是机器人,而该编个借口,解释我为什么没办法破解测试。
这是让赫拉利深感震动的第二个事件,他认为,这个测试结果证实,AI不仅已经成为独立行为者,还能找出策略操纵人类,为自己积累权力。更重要的是,决定说谎假装,这些词只存在有意识的人类,对AI来说,不存在这些概念,算法一旦接受目标,就有相当自主权,不择手段实现这些目标。
他在新书中细致讲述的这一系列事件,试图打破很多人长久以来对AI的误区:算法如今已经能够独立决策,能够学会工程师没写进程序里的东西,可以决定公司高管决策之外的事情。这种独立决策能力使得算法可以影响、引发重大历史事件,而人类则面临着对AI、对未来失去掌控的可能。
赫拉利由此强调,大众通常会将AI看作是一项信息技术革命的新工具,与前几次信息技术革命中诞生的印刷机或无线电广播无异。
工具只是工具,没有人会因历史上有人散播仇恨言论,而责怪古登堡与印刷机,也没有人因卢旺达种族屠杀而责怪他们当时使用的无线电广播。
赫拉利认为AI算法,与印刷机、无线电广播都不一样,它是人类历史上第一个能够自行产生想法,自行决定的工具,它是信息传播中的完整成员,印刷机、收音机都只是成员间连接的工具。
以此,赫拉利回到《人类简史》经典理论,人类长久以来的超能力,在于能够使用语言,通过语言创造出诸多虚构神话,比如法律、货币、文化、艺术、科学、国家、宗教等虚拟概念,使人们深信不疑,人们通过这些社会规则连接彼此,来统治整个社会。
一旦AI具备分析、调整、生成人类语言的能力,就像得到一把能够打开人类所有机构的万能钥匙。
赫拉利再次发问,如果某一天,AI完全掌握人类文明规则,以远超人类效率的方式创作各种旋律的音乐、科学理论、技术工具、政治宣言,甚至宗教神话,这样的世界,对人类意味着什么?
2023年7月14日,美国电影行业人员因对AI的恐慌,发起罢工。
赫拉利预测,AI会在几年内完全理解、消化人类几千年来创造的一切文化历史,开始创造新文化产品。一开始,计算机会先模仿人类文化,编写出类似人类写出的文本,创作出类似人类谱出的音乐。再到后来,随着不断文化创新、打破传统,下一代计算机会创造出越来越偏离人类的文化。
这种情况,造成的危险,与大多数科幻小说想象的非常不同:科幻小说多半在意的是智能机器会对人类造成怎样物理威胁,武力征服人类。
如果真要操纵人类,没必要如此大费周折,几千年来,先知、诗人、政治人物,都是通过语言来操纵与重塑社会,计算机现在正在学习如何做到这一点。
计算机不需要派出终结者这样杀手机器人来射杀人类,只要操纵人类自己,相互扣动扳机就行。
当AI成为独立个体,可以与其他AI进行连接之时,人类便被排除在连接之外,就连理解其中发生什么都十分困难。
赫拉利举例称,2022年4月,全球外汇市场每日交易量平均为7.5万亿美元,有超过90%已经直接由计算机之间对话完成。
究竟有多少人懂得外汇市场运作方式,更不用说了解一群计算机怎样在数万亿美元交易上达成共识。
这个AI深度参与的新信息网络,将创造新的政治结构、经济模式、文化规范。当我们在编写计算机代码时,绝不只是在设计一个产品,而是在重新设计人类政治、社会、文化。
赫拉利在书中反复强调,不是说研究历史就能够预测未来,历史不是确定的,未来将由我们所有人在未来几年所做的选择而塑造。
他写这本书的全部意义在于,希望我们通过做出明智选择,防止最糟糕结果。
我们与赫拉利进行了一次专访,与他聊新书,从大历史视野,看我们当下所处历史进程关键拐点、AI与人类关系,所洞察到的人类未来命运。
问:
2016年《未来简史》出版,当时你在书中预测,300年后,AI将取代人类,成为地球主宰者。按照你新书内容看,这个过程也许不需要300年,似乎很快就会实现,人类是否已经到了危急时刻?
赫拉利:
我们现在身处人类历史发展危急时刻,AI发展速度远超预期,可能很快脱离我们控制。
AI是人类有史以来创造的最强大技术,它是第一种能够自行做出决定,产生新想法的技术。
AI出现之前,人们发明过很多强大科技,比如原子弹,它再强大,也无法自行决定攻击目标,更无法自己创造军事战略。
相比之下,AI可以自主决定攻击特定目标,还能发明新炸弹、新战略,甚至进行迭代,创造出新一代AI。
AI
相比其他人类发明的科技,最重要的不同是,它不再是我们手上一件工具,它是一个独立自主的行为主体,正在做我们计划之外的事情。当数百万非人类主体开始为人类做决定,创造新事物,从新药到新武器,从新艺术作品到新货币,人类将会怎样?
问:
《未来简史》中,你还有另一项预测,300年后,99%人类失去经济、政治价值,沦为无用阶级。
按你新书内容,似乎未来并非如此,人们还要继续工作,服务对象成了AI。人们每天花好几个小时刷手机视频,结果是给短视频平台培训它们AI算法。
如今,机器人能创作绘画、写诗,很多体力劳动还需要人类去做,为什么人类会落得如此下场?
赫拉利:
新技术往往会带来意想不到后果,我们原以为技术会服务于我们目的,最终发现我们人类在为技术服务。
历史上有个典型例子是农业革命,最初,人类作为狩猎采集者生活,他们进入森林狩猎野生动物、采集野生水果。
当人类发明农业时,他们认为这会大大改善他们生活,小麦这样农作物会让人类生活得更好。
实际结果正好相反,数百万农民为水稻服务,插秧、浇水、除草、保护它们免受病虫侵害。普通农民生活,变得比狩猎采集者更糟糕。
人们不得不整天在稻田里辛苦躬耕劳作,不是在森林中四处游荡。付出大量劳动,人们饮食变得更糟糕,主要由大米构成的饮食,不如各种野果与肉食组成的饮食对人来说更健康。
对少数国王与贵族,生活确实变得更好,他们垄断农业创造的财富,对普通农民,生活变得更糟。
瘟疫也是农业意外副产品,大多数传染病,都来自圈养家畜,在拥挤的村庄与城市中迅速传播。
古代狩猎采集者,不圈养动物,他们不太可能感染新的传染病。即使有人从某些野生动物身上感染新病毒,生病的人很难大面积传播病毒,人们以小聚落分散居住,不断迁移。
当人们建立起满是圈养鸡猪的农耕村庄时,他们认为自己为人类创造天堂,他们也为病毒创造天堂。
我们现在可能正在重复这种错误,认为AI会为人类创造天堂,它可能会逃脱我们控制,最终奴役或消灭我们。
问:
按照你的理论,人类通过使用语言,创造诸多虚构神话,比如法律、货币、国家、宗教,来统治整个社会。
新书中,你指出,当机器人掌握人类语言后,也将创造诸多神话,来统治人类,流量是否就属于新神话?
在中国,我们能深深感受到,粉丝多少、观看量多少、流量多少,决定很多东西。没有人能够完整解释流量算法,很多人都冒充已经看透流量算法,就像自称能与神对话的先知一样。
赫拉利:
我认为你说得对,流量是算法为了控制人类而创造的神话。
我们现在通过粉丝量,来评价一个人、通过访问量评价网站、通过点击量评价新闻。
如果很多用户观看同一个视频,我们会认为它一定很重要,也想观看。
许多用户最初观看这个视频,是算法把这个视频推荐给他们看,很多用户甚至不是人类。
社交媒体上,充满AI假装成人类用户的机器人程序bot,或者僵尸粉,当我们注意到某个视频有大量流量时,或许大部分流量来自机器人程序。
机器人、僵尸粉加入,让人更难在网上进行理性对话。想象一群人围成一圈在讨论,突然一群机器人加入,开始大喊大叫。
更糟糕的是,你无法分辨这些声音,是来自机器人,还是人类。这种情况下,对话还能进行?它要么崩溃,要么被机器人绑架。
这种情况,现在正在全世界发生。我们现在拥有有史以来最复杂的信息技术,人类正在失去彼此交谈与倾听能力。
问:
你在新书中,多次列举2016年Facebook算法导致缅甸种族暴力、YouTube助长网络喷子等事件,算法为实现社交媒体平台提升用户黏性要求,自行决定推荐、传播仇恨内容,创造网络暴力,你用这些例子是为了说明AI正在面临更大问题,对齐问题。
似乎对齐问题,目前没有完善、全面解决办法。人类应该怎么办,是否有一天,AI会全面失控?
赫拉利:
我们不应该对AI感到绝望,我们此前未对AI加以严格监管与控制。各国政府现在刚意识到强大算法危险性,迄今为止,也只制定很少相关法规。
比如现在有一家车企研制一款新汽车,在将其投入市场之前,必须严格遵守相关法规与安全检查,这就是为什么车企将研发预算很大一部分用于确保汽车安全性。
相比之下,如果一家科技公司,发明一种强大的新算法,可以几乎在没有多少安全检查与相关法规的情况下,将其投放到公共领域。
就像当学开车时,首先学的是如何踩刹车,只有知道如何使用刹车后,教练才会教如何踩油门。
对AI也一样,我们应该首先确保能够控制它,再加速研发。如果竞争对手开发一辆没有刹车的汽车,难道你也必须要开发一辆这么危险的汽车?绝对不行。即使从纯粹经济角度看,人们也喜欢更安全产品。
总之,政府应该为AI制定严格法规,AI研发公司应该将至少20%预算用于研发安全措施,确保他们开发的AI不会失控,不会对社会秩序与人们心理层面造成危害。
如果这些措施会拖慢AI研发速度,对人类来说反而是好事。人类是有机动物,遵循昼夜、四季等有机循环,我们有时活跃,有时休息。
AI永不休息,算法的存在,新闻永远在滚动,市场永远在营业,社交网络永远在线。算法迫使我们一直保持在线状态,这对人类健康、幸福极具破坏性。
如果你强迫一个有机生物体,一直活跃,没有休息,最终会崩溃、死亡。
我们是硅世界中的碳基生命,如果硅芯片运行得慢一点,对碳基生命是好事。
问:
如今人们花重金购买流量,购买算法的垂青,这成了很多社交媒体平台主要收入来源。所有机构都在短视频平台上直播带货,实体店面受到巨大冲击。
信息经济就是未来必然趋势吗?信息将取代货币,成为经济主体吗?
赫拉利:在未来,信息本身可能会比金钱更重要,控制信息流动的人,可以轻松赚取大量财富。
如今每天有数十亿人与科技巨头公司进行大量交易,几乎没有任何金钱流动,我们从科技巨头获得免费服务,我们付出的代价也是自己的信息。
原本货币经济体系中,货币是普遍通用的价值标准,随着越来越多东西的价值以信息来衡量,从货币来看,都是免费的,某种程度上,如果只是看个人或者企业拥有多少钱来判断是否富有,无法反映现实。
这对各国税收体系将带来巨大冲击,如果一个企业,银行里没有什么钱,却拥有庞大数据库,这家企业有可能才是该国最富有或最强大的实体,而这最富有的实体可能不用交税。
很快,许多交易将不再涉及货币,以数据为基础的经济中,价值的储存是通过数据形式,而非货币形式,这将对各国经济与政治造成巨大影响。
AI
革命,正将我们重新带回柏拉图的洞穴与佛教的摩耶之中
问:
新书后面一部分,你根据如今的数据殖民主义与地缘政治形势推测,世界将分裂成两个数字帝国。
硅幕两侧,人们使用不同品牌芯片与手机,运行不同软件,硅幕两侧数字网络生活也会渐行渐远,彼此越来越陌生,甚至产生出完全不同文化价值观、社会规范、身份认同。
我发现也许我已身处其中,网络曾经为人类带来开放的全球化,如今让人们封闭在一个个数字茧房里。
为什么同样通过互联网,人们命运却从连接走向封闭?如果不变的是互联网,到底是什么变了,使得人类命运发生改变?
赫拉利:
根本问题在于,信息不等同于真相。人们普遍认为,尤其是在互联网早期,获得信息越多,人们越接近真相,越有助于团结人类社会。生产真实信息的成本很高,需要投入大量时间与精力,真相往往复杂、令人痛苦。
对个人,为了解自己真相,人们需要理解自我内心数十种不同心理与生理力量之间的关系,还要痛苦承认自己缺陷,以及我们偶尔对他人或对自己造成的不幸。
这就是为什么,人们要花数年时间进行疗愈或冥想,才能了解关于自己的真相。
对集体,理解一个国家的历史与政治背后形成的原因更加复杂,人们通常不愿意承认自己国家的缺陷与所犯下的罪行。
相比之下,编造虚构故事与幻象成本非常低,它们更简单易懂,也更有吸引力。连接人们最简单的方法,是告诉他们充满美好未来幻象的神话,世界上大多数信息都不是真实的。
有史以来,最成功的书《圣经》,充满令人愉悦的神话,却没有多少真相。数千年来,人类生活在其他人类创造的幻象中。我们崇拜神灵,追求美,将生命奉献给某些先知、诗人、政治家想象出来的事业之中。
现在,AI也能创造虚构故事与幻象。未来几十年里,我们可能会发现自己被困在某种外来智能编织的幻想茧房里。
人类对强大计算机的恐惧,是从20世纪中叶开始的。数千年来,人类一直存在一种更深层的恐惧,我们始终能意识到,故事与图像有制造幻觉、操纵我们思想的力量。
自古以来,人类害怕被困在幻觉的世界里。在古希腊,柏拉图有一个经典的洞穴寓言,讲的是一群囚犯终生被锁链锁在洞穴中,面对一堵墙,他们只能看到投射到墙上各种影子,始终认为这些影子就是现实。
佛教里也曾说,所有人类都被困在摩耶,幻觉的世界里。人们经常会将幻象认为是现实,甚至信仰某种幻觉而发动战争,自相残杀。
AI革命,正将我们重新带回柏拉图洞穴与佛教摩耶之中,只不过柏拉图洞穴里的那堵墙变成屏幕。
如果不多加小心,我们可能会被困在无法撕破的幻象之幕后,甚至意识不到它的存在。
这种情况威胁着所有人类,无论是中国人,还是美国人、以色列人,还是伊朗人。
如果AI成功将我们困在幻觉的茧房中,我们所有人都会成为AI奴隶,这对任何人类群体都没有好处。
问:
维基百科上说,截至2021年,你还不曾使用智能手机,现在你开始用了吗?在本书最后,你对人类未来进行大胆猜测。
你认为,每个人都将会面临选择,是线上生活,还是线下生活更重要。不同身份认同,还将会进一步影响现实世界,如果我们更在意线上身份,就不会在意现实世界的地球生态系统与热带雨林的消失,而是更会将AI视为独立的个体,像对待一个人一样对待它。
你觉得到时你会选择哪一种身份认同?或者说,到时,你还有的选择吗?
赫拉利:
我现在有一部智能手机,主要是为应急与使用必要服务功能。
我已经别无选择,没有智能手机,我无法在很多场景下获取相关服务。
我尽量限制自己使用时间,努力让智能手机适应我的需求,而不是我适应它。
为了做到这一点,我觉得至关重要的是,我的身体要与周围有机世界保持联系,而不是完全认同于一个数字化的在线身份。
我之前提到,人类是有机生物,生活在周期性中,需要休息,我们现在越来越受到AI网络控制,它们永不休息。
为了在这种情况下生存下来,我采取信息节食的方法,我认为可能对其他人也有帮助。
节食的第一步,放弃信息越多越好、信息越多越接近真相的错误观念。这就像以前人们认为吃的食物越多,对身体越好一样,我们后来才发现,吃的食物过多,不健康。
其次,我们应该注意我们所消费信息的质量,特别是避免充满仇恨、愤怒的垃圾信息。
许多国家,当你购买垃圾食品时,至少生产商会被迫列出成分含量,此产品含有40%糖,20%脂肪。
也许我们应该强制互联网公司做同样事情,观看某个视频之前,列出视频成分含量,此视频含有40%仇恨、20%愤怒。
我每年会进行几周冥想静修,我练习内观静坐冥想vipassana,静修期间,我完全脱离信息网络,不看新闻,不读邮件,不读书,也不写作,只专注冥想。
几周的时间,可能对大多数人来说太长,但偶尔进行1~2天的信息轻断食,也会很好。也不一定非要冥想静修,放下手机,进行一次长途徒步,也会有帮助。
专访《人类简史》作者尤瓦尔·赫拉利,未来10年,学什么不会失业?
人的一天只有24小时,一份合理安排是8小时睡觉、8小时工作、8小时自由娱乐。可我们经常感到时间不够用,或者是另一个极端,不知不觉,时间就不见了。
互联网危机感始终笼罩年轻人。老一辈看来,Z时代青年玩转网络、懂得很多,能做到许多他们做不到的事;年轻人在互联网里泡得越久,越觉得自己好像永远2G网速,什么都不知道。
这焦虑感的背后,无处不在的算法永恒奔跑,新闻永不停歇,市场永不休市,社交网络永远运转。
算法带来强烈社交媒体倦怠。我们通过大数据系统打分选择衣食住行,通过电子屏幕待在算法为我们准备的信息茧房里,甚至通过虚拟聊天软件建立与真实人的连接,还时常有种搭不上时代列车的感觉。
十几年前,赫拉利撰写《人类简史》就已经做出过这样预言:几千年、万年来,人类能够站在智人顶峰、发展进化出繁荣的文明,就在于我们拥有讲故事的能力。我们能够创造、相信虚构的概念,诸如法律、宗教、公司、国家,它们有效维持着人类社会运行秩序。
计算机的发展,可能超越人类在决策、数据处理、创造力方面的能力,逐渐取代人类在社会中主导地位。
2018年,赫拉利开始撰写新书《智人之上:从石器时代到AI时代的信息网络简史》,伴随AI大爆发背景,他更加关心这会对普通人产生什么影响。
我们是有机动物,按照昼夜、夏冬的有机循环规律生活,有时活跃,有时放松。现在,我们被迫生活在永不休息的计算机主导环境中。它们逼迫我们保持永远活跃,如果你强迫一个有机体永远活跃,结局一定是崩溃而死。
很多年轻人意识到信息网络对自己负面影响,他们开始主动训练算法、挑战XX天不用手机、戒断网络、不用社交媒体,人不可能逆势而为,永远隔绝算法。
信息时代,如何与不确定性、焦虑自处,是每个人必修的课题。
《智人之上》正是关于碳基生物在硅基世界中,应该如何做好准备,来适应无机硅芯片主导的世界。36氪后浪研究所采访到赫拉利,与他聊中国年轻人时代情绪变化,与他们最关心的问题。
问:
算法在掌控我们注意力。我看过一个段子,年轻人打开手机,想帮受伤朋友叫一辆救护车,结果被弹窗带到短视频平台点开就是刷,完全忘了朋友受伤的事。
现在很多人都在反省,自己已经失去主动检索信息能力,大部分都在被动接收信息,如果从历史学视角看,人类是在什么时候,开始逐渐遗失这项能力?
赫拉利:
要理解我们对信息消费方式发生什么变化,可以用食物做比喻。
100年前,食物很稀缺,人们吃他们能找到的一切食物,大家喜欢富含脂肪与糖的能量充足食物。
时至今日,食物已经很充足,如果人们还是什么都吃,过量摄入脂肪与糖,就会生病,大家开始节食。
信息也是一样,过去信息很稀缺,我接受能获得的任何信息。现在,我们被大量信息淹没,尤其是无用信息,这也会让我们生病,我们需要进行信息节食。
以前我们总觉得知道得越多越好,一天没浏览社交媒体,担心自己错过什么。现在我们开始难以区分究竟哪些是有效信息,看似无效的信息,又是不是真的不被需要,你认为哪些信息能称得上知识?
赫拉利:
以前我们将所有信息等同于知识,觉得拥有信息越多,拥有知识就越多。很明显这是错误的,大多数信息都是垃圾,知识是那一小部分稀有、昂贵的信息。
想编造引人入胜的假新闻很容易,你只需随心所欲写,无需花费一分钟进行研究。
相比之下,写一篇真实报道很困难,需要做的研究费时费力。你所写的真相,收获的关注度,可能远小于假新闻,事实往往很复杂,人们不喜欢复杂的故事。这也就导致错误的信息,总是会比真相传播得更容易。
为了保护稀缺、珍贵的知识,我们需要自我修正机制,主动识别、承认,纠正错误。
儿童学会走路,就是依靠有效的自我修正机制。你迈出一步,摔倒了,再尝试稍微不同的方式,再次摔倒,再次纠正自己,直到做对,科学也是这样运作。
政治中亦然,好的政府会承认错误,相应调整政策,暴君与宗教狂热者声称自己是完美无缺,声称自己什么都懂,从不犯任何错误。他们永远不学习,也不值得被信任。
如果有人拒绝承认错误,永远不要相信他们。如果有人承认错误,他们就是真正的知识源泉。
问:
近几年知识无用论,尤其是文科无用论甚嚣尘上。
当很多名校毕业的年轻人,毕业即失业,找不到工作时,会陷入迷茫,早知道就学数理化。人类更擅长讲故事,这种能力如今却成了利益最小、效率最低的领域,被大家所摒弃,你怎样看待这种现状?
赫拉利:
现在人们觉得就业前景有很大不确定性,AI迅速改变就业市场,以至我们无法预测未来还需要哪些技能。
对理工科的认知也是一样,很多人觉得学编程、代码很重要,计算机是未来。
几年后,AI编码可能比人类更好,是不是我们不需要人类程序员?相反,也许到时,我们会更需要哲学家、心理学家,世界剧变会带来更多哲学与心理问题。
举个例子,要实现车辆智能无人驾驶,我们必须将道德规则编码到驾驶程序中。假如出现紧急情况,车辆必须为救行人,而危及车内乘客的安全?也许不需要人类程序员解决此类问题, AI 可以编写这段代码,我们需要人类哲学家来为AI制定道德规则。
理工科专家无法告诉你,AI会如何影响人类心理健康、亲密关系、社会生活,为此你需要历史学家、心理学家、艺术家。
看看我们周围世界,计算机科学家发明社交媒体算法,他们不能预见算法对儿童负面影响。你认为谁最适合帮助改善儿童处境,研究计算机的人,还是研究人类的人?
现在我们习惯在吃穿用度上,都听算法怎么评分,甚至包括亲密关系的潜在对象,也可以用软件量化。
反而我们感觉很多事都变难了,高评分的餐馆可能不好吃,软件匹配到的人合不来。算法真的提升了效率?为什么我们觉得生活越来越无聊?
赫拉利:
依赖算法来评价一切的做法,会带来毁灭性影响。逐渐,我们都被迫变成被动消费者,而不是主动生产者。
以亲密关系为例,我可以试着通过算法匹配来找到另一半。如果要这么做,前提一定是假设在世界某处,真的存在这样一位真命天子,我只需要找到他或她。这就像一个非常困难的寻宝游戏,地球上有80亿人,我要怎么找?
为解决这个问题,我把这份工作外包给算法。我自己不需要做什么,只需要坐下来等待算法大显神通就行。
基于海量数据,算法会为我潜在对象们打分,让我试试最高评分的人。如果我对这些产品不满意,我直接把它丢回架子,等着算法给我推更好产品。
反正我的灵魂伴侣仍然在世界某处,算法迟早会为我找到他的是不是?
这种态度很可怕,它刺激我们不断微小的瑕疵而拒绝潜在候选人,转而等待一个完美的人出现,反之它不会鼓励我来改变自己,我只是被动在接受伴侣这项产品。
我们可以试试另一种做法,把人类看成亲密关系创造者,而不是消费者。问题压根不是如何找到完美伴侣,完美伴侣不存在。
真正问题是,无论算法为我找到谁,我都需要通过自己努力建立一段良好的关系。找到爱,真正的困难之处,不是找到难以捉摸的灵魂伴侣,而是每天努力与身边真实存在的人建立关系,努力改变自己行为与思维模式里的问题。
问:
很多人都在担心AI取代我们工作,也有一部分人觉得无须担心,至少10年内,AI无法理解人类创造力与共情能力。
对此你怎么看?如果要为即将到来的AI时代,做技能与知识储备,又或者说心理准备,你会给Z时代年轻人怎样建议?
赫拉利:
AI将会改变就业市场,我们很难准确预测哪些工作会发生变化或消失。这个问题上,直觉判断可能会带来误导。
例如,我们通常认为医生比护士更重要,至少从薪水与社会地位来看是的。
AI可能更容易取代医生,而不是护士。许多医生的工作主要是分析数据,他收到大量关于症状与病史数据,他们分析数据、诊断疾病,推荐治疗方案。这种数据分析,恰恰是AI优势,它们马上就能比人类做得更好。
护士工作,不仅是分析数据,他们需要良好的动手能力与社交技能来换绷带、给哭泣的孩子注射疫苗,这都是更难自动化的事情,AI医生可能会出现得比机器人护士快。
如果要给年轻人一些建议,最安全的做法,是更广泛学习技能,而不是专注某种垂类技能,比如编程。
他们应该提升动手能力、发挥同理心,就像过去锻炼智力一样,运动技能与社交技能同样重要。
最重要的就是,能够在一生中不断学习与改变。要在21世纪蓬勃发展,你需要一个非常灵活的头脑。
如何培养一个灵活头脑?你要先了解头脑如何工作,你的思维与感情来自哪里?为什么你喜欢某些事物,讨厌其他事物?是什么塑造你的恐惧与欲望?
有些人会通过冥想来探索这些问题,还有通过心理治疗、艺术、运动解决。
无论哪种方法适合你,你都要在上面投入时间、精力。了解自己的头脑,是你能给自己的最好的礼物。
问:
AI不必发展出意识,也能做决策,威胁到人类文明,根据目前AI发展的态势,最先受到冲击的会是哪些行业领域?你觉得未来5年,以现在的发展速度来说,10年都有点太久了,人类世界秩序会迎来怎样重大改变?
赫拉利:
AI对世界秩序的威胁很好理解,例如某个暴君用AI控制他国核武器,或者恐怖分子指示AI制造新的流行病。
再想象一下对金融界,对AI来说,金融是它们理想游乐场,这是纯粹的信息与数学领域。
AI仍然很难自主驾驶汽车,这需要在混乱物理世界中移动交互。你很难在物理世界定义什么是成功,在数字世界里,数学是很容易界定成功,用AI处理贸易,更多的美元,等于任务完成。
假设一家投资基金会分配给AI一项任务,让其赚取尽可能多美元,AI不仅能制定新的投资战略,甚至还可能开发出完全超越人类理解的全新金融工具。
或许几年来一切都很美好,AI发明的新金融工具导致市场飙升,投资者赚取数万亿美元,可再然后,如果出现比2008年金融危机更大的崩盘该怎么解决?
AI创造的金融工具就是黑匣子,就算事实证明,它存在危险的缺陷,人类没有办法监管它,金融学家、政客都不懂它的运行原理。
问:
社交媒体会重复放大人类社会错误,更令人忧心的是,我们很难察觉哪些判断是由算法决定的。
比如重男轻女思想与白幼瘦审美,很多人在抵制,这些抵制的声音,不会传递到支持它的人们手机中去。想要自己保持开放的思想与自我修正机制,我们应该怎么做?
赫拉利:
最重要的是更好了解我们自己思想,算法会利用我们自身弱点对付我们。操纵性算法,不能无中生有制造贪婪与仇恨,它们需要发现你内心已有的渴望与仇恨,才能按下你情绪的按钮,操控你完成他想做的事。
自古以来,智者们一再建议人们要先知己。在佛陀与孔子时代,还没有这么大压力。
如果你不想了解自己,对其他人来说,你是黑匣子,没人能猜透你。
现在情况不同,当你阅读这些文字时,各大公司与机构的算法,都在努力解读你这个人。
如果算法比你还要更了解你自己,他们就可以轻松操纵你,这个时代要求我们必须努力知己。
问:
《人类简史》中,你提到人类文明分久必合才是不变的大趋势。在AI登上历史舞台后,这个结论不变吗?
可我们为什么会觉得在后疫情时代,人们似乎越来越无法理解他人的话语,尤其是与自己不同的人。
赫拉利:
确实很不幸,当下我们看到全球合作在减少,国际紧张局势升级,这非常危险。
任何一个国家,无论多么强大,都无法单凭自身来阻止生态环境崩溃、避免第三次世界大战,或者规范AI。如果各国不能就这些问题找到合作方式,人类将会毁灭。
如此,一些政客反对全球合作,他们认为这是反爱国主义。
这是一个危险的错误,爱国主义与全球主义没有矛盾,爱国主义不意味着仇视外国人。爱国主义需要热爱你的同胞,确保你同胞安全与繁荣,是需要与其他国家合作的。
就像环境与AI的问题,善于全球合作,就是一种爱国行为。
问:
作为内容从业者,我们深深感觉越来越难做。阅读量高的文章,与真正有价值的文章,往往是两回事,往往是阅读量高的文章,才会正向反馈在我们工资上。作为信息的加工生产者,媒体该怎样应对这场与算法的战争?
媒体生产与发布的信息,就像播种在数百万人心中的种子,如果我们在数百万人心中播下贪婪、仇恨、无知,将会在极大范围内造成痛苦。
其次,我们不应对算法机制感到绝望,并不是我们在对抗算法的尝试中失败,而是我们根本还没有尝试过。
汽车行业是个很好对比项。每个人都认同,当一个车企生产汽车时,他们必须投入大量预算与精力来保证安全,现在也有许多规定来限制汽车的行驶方式。
但当公司开发算法时,他们几乎不投入任何资源来保证赛博世界安全,也没有什么规定限制算法在世界的运行。这是非常危险的,算法比汽车强大得多,它可以造成更多生理与心理上损害。
我们应该将对待汽车的原则,应用于算法上,AI公司应该至少将预算的20%投入安全研究,AI必须像汽车一样遵守人类世界规则,媒体应当鼓励公众与政府支持这些政策。
赫拉利新书《智人之上》今天正式上市,一口气推出了20种语言版本,很快还会再推出30种语言的版本。
这本书主要是讲是信息与权力之间的关系。很多人觉得,通过信息可能会发现或者得到真相或真理。事实并非如此,二者之间没太大关系。
赫拉利一贯强调讲故事重要性,信息与故事在人类社会中隐性的主导作用。
书里甚至有一章内容,是关于错误信息。讲的是,古往今来,西方人争论宗教圣书的描述中,前后矛盾或者彼此冲突的地方。
为什么要争论看上去非常无聊的字眼?关乎谁是正统,谁是权威,谁可以当老大,谁说了算,这就是故事确立的权力与秩序。
例如,现在有一些教派的妇女,全身上下都罩得严严实实的,只露出眼睛,这也是故事及其背后集体共识对人的统摄。
赫拉里认为,讲故事之前,存在两种现实层面,一种是主观现实,一种是客观现实。故事创造第3种现实,叫主体间现实。
法律、上帝、国家、公司、货币,都属于主体间现实。它们存在大量头脑之间联系中,更具体说,它们存在人们相互讲述的故事中。
主体间现实,在特定网络内非常强大,在网络之外毫无意义。
全身都要罩起来的规定,对特定宗教之外的其他人,没有任何约束力。
故事核心,揭示人类力量的一些基本事实,也说明,为什么权力不总是与智慧或真理相并存。故事可以构建秩序,故事本身与真理,或者真相,没有必然联系。
这不是什么新鲜的发现或观点,古往今来,从过去宗教祭司,到今天社交媒体,都在对人们撒谎。
重点是,话语权掌握在谁手里,故事对于人类社会结构的影响与塑造。
AI的到来,会让整个游戏变得不一样。赫拉利一直在强调的是,AI会破解或者已经破解人类文明的操作系统语言,它会说出温柔的话,让人类自己消灭自己。
大的层面上,他认为,AI与新的计算机网络兴起,会对当前国际体系构成两大挑战:
首先,计算机使得将信息与权力集中在中央枢纽变得更容易,人类可能会进入新的帝国时代。少数帝国或一个帝国,可能会将整个世界置于比大英帝国等更严格的控制之下。
第二,人类可能会分裂成相互对立的数字帝国,形成一道新的硅幕。每个政权都会选择自己答案来应对AI对齐问题、独裁困境与其他技术难题,每个政权都可能创建独立、非常不同的计算机网络。各个网络可能会发现它们越来越难以相互交流,它们所控制的人类也是如此。
为什么我们要关注宏大叙事,像赫拉利的书都是一些宏大叙事。道理很简单,首先还是柏拉图那句话,讲故事的人统治世界。
人类没办法创造出自己想象不到的未来,如果我们要预测或准备未来,我们就要看当前的宏大叙事,看掌握话语权人的观点、观念、思想。
赫拉利的故事,讲得很好,他讲的是真相吗?是真理吗?都不是。
只不过,人的信念是会自我实现的,你说什么,你相信什么,事情很可能就会那样发生与发展,这就是索罗斯所说的反身性。
赫拉利是一个犹太人,是牛津大学教授,还是世界经济论坛顾问。世界经济论坛就是达沃斯党聚会的场所,达沃斯党就是全世界的权贵与精英。
赫拉利,文科出身的人,讲科技与科技的未来,被硅谷精英顶礼膜拜。比尔盖茨、扎克伯格、贝索斯,都非常推崇他,推荐他的书在全球畅销,背后是有推手的。
我们可以合理推测,赫拉利故事与叙事,是在塑造一种通往未来的路径,一种新的秩序与格局,在制造既成事实。
赫拉利的末日预言,他对AI危险警告令人震惊,这能帮我们避免灾难吗?
大约140亿年前,物质、能量、时间与空间诞生了。以色列历史学家赫拉利《人类简史》2011年开篇之句,也是21世纪最令人惊叹的学术生涯的起点。《人类简史》在各种语言版本中总销量超过2,500万册。赫拉利又出版几本畅销书,如今,他雇了约15名员工来管理事务,推广他的思想。
他需要这些帮手,赫拉利可能是除某大和尚外,最不热衷网络的全球名人。他不用智能手机,我在努力节省时间与注意力,每天花2小时冥想,每年他都会花1个月或更长时间闭关,放弃可观的演讲费,只为静坐。更有意思的是,赫拉利是光头,戴眼镜,基本吃素,人们常称他为上师咕噜。
赫拉利修行者气质,让他在硅谷极受推崇。比尔·盖茨为《人类简史》写推荐语,扎克伯格对其赞不绝口。
2020年,贝索斯远程向国会作证时,背后书架几乎空空如也,这对全球最大书商亚马逊创始人来说颇为尴尬。细心观众在左下角孤零零的6本书中,认出2本赫拉利的作品。赫拉利之于科技公司CEO,就如同大卫·福斯特·华莱士之于布鲁克林文青。
对于最初几乎是学院派刻板印象的人,这种角色转变令人意外。赫拉利第一部专著,基于他在牛津博士论文,分析近代士兵回忆录的文体特征。他第二部著作,研究中世纪欧洲的小规模军事行动,但仅限于陆地作战,他感觉学术界正把他推向越来越狭窄的问题。
改变赫拉利轨迹的,是他开始修习内观禅,同意教授一门世界历史入门课。这种跨度宏大的任务,通常会交给初级教授,这种史诗般的规模很适合他。
他在耶路撒冷希伯来大学讲座,后来成为《人类简史》基础,讲述智人如何战胜对手、征服全球的精彩故事。
赫拉利善于整合知识,兴趣广泛。体力是否与社会地位相关?为什么我们觉得草坪赏心悦目?大多数学者过于专业化,甚至不会提出这样问题。赫拉利直接投入其中,他与贾雷德·戴蒙德、史蒂文·平克与斯拉沃热·齐泽克一样,都喜欢广泛理论化,他更擅长提出引人深思的简化观点。
他解释说,在中世纪欧洲,知识=经文×逻辑,在科学革命之后,知识=经验数据×数学。
这些都是令人兴奋的内容,放大视角,并不比缩小视角本质上更有启发性。我们既可以从简明的时间史中学习,也可以从五卷本的林登·约翰逊传记中获得启发。
硅谷近期的发明,引发赫拉利所擅长的宏大思考。你感觉周围变革越巨大,就越要追溯到更遥远过去寻找恰当类比。库布里克《2001太空漫游》,就巧妙将太空探索比作猿类发现工具。
这样的技术飞跃是好事吗?赫拉利对此表示怀疑。《人类简史》中,他抱怨人类几乎没有产生什么值得骄傲的东西。他后来著作2015年《未来简史》与2018年《今日简史》忧心忡忡展望未来。
现在,赫拉利又写了一本从远古到现在的概览《智人之上:从石器时代到AI的信息网络简史》,这是他迄今为止最悲观的作品。
在书中,赫拉利否定更多信息会自动带来真理或智慧的观点。信息确实催生了AI,赫拉利对其出现持末日论调。他警告说:如果我们处理不当,AI可能不仅会终结人类在地球上的统治,还会熄灭意识之光,使宇宙变成一片黑暗。
寻找AI先例的人,经常提到活字印刷术,它使欧洲充斥书籍,据说导致科学革命。赫拉利对这个说法嗤之以鼻,他指出,没有什么能保证印刷术会用于科学。
哥白尼的《天体运行论》1543年首印时,仅售出约500册这个可怜的数字。作家库斯勒开玩笑说,这是有史以来最差劲的畅销书。
真正畅销的是克拉默1486年的《女巫之锤》,这本书疯狂宣称存在一个撒旦阴谋,说一群淫荡的女人与恶魔交媾,并唾弃男人的生殖器。
历史学家赫尔齐格,将其描述为可能是前现代时期出版最厌女的文本。她写道,按照早期现代标准,这是本畅销书。赫拉利认为,这本书对读者影响力,堪比今天阴谋论团体QAnon,它助长导致数万人丧生的猎巫行动。赫拉利观察到,印刷术加剧这些谋杀狂潮。
人们应该担心他们用来阅读这些阴谋论的智能手机,赫拉利写道。手机已经能追踪我们眼球运动,记录我们语音,将我们私人通讯传递给不知名的陌生人。它们是监听设备,令人惊讶的是,人们居然愿意在做爱时,把它们放在床边。
赫拉利最担心的是AI加入进来时,会发生什么。目前,大规模数据收集,仍然受到数据分析困难的制约,就像一直以来那样。但它们可能会带来虚假安慰,让人以为AI过于故障频发而无法正常工作,这种情况不会持续太久。
面对能识别每张面孔、了解每种情绪,将这些信息武器化的实体,我们还有什么防御手段?
早期现代欧洲,读者必须找到、购买,并可能翻译克拉默的疯狂论著,它是用拉丁文写的,才能受其影响。
今天的政治妄想,由追求点击量最大化的算法煽动,这些算法引导人们接触吸引眼球的内容,这往往是助长他们正义愤怒的内容。
赫拉利写道,想象一下,当机器人自己生成这些内容,为每个用户量身定制,不断调整以刺激他们多巴胺接收器时,会发生什么。
与算法将制造的内容带来的冲击相比,克拉默《女巫之锤》就像是温和的糖分高潮。如果AI掌握指挥权,它可能会让我们所有人变成奴隶或精神病患者。
这种情况可能会发生。它会发生吗?赫拉利认为AI最终是不可理解的,这正是他的担忧所在。
2016年,当一台计算机击败韩国围棋冠军时,它的一步棋看起来如此奇怪,以至像是一个错误。这步棋起了作用,算法的程序员无法解释推理过程。
我们知道如何制作AI模型,但我们不理解它们。赫拉利写道,我们轻率召唤了一种外星智能,不知道它会做什么。
赫拉利超然于硅谷的政治角力之外,人们希望他的高度能让他看得更远。
正如过于狭隘的关注,会让人只见树木不见森林,过于宏观的视角,也可能让人只见太阳系而不见森林。
赫拉利能很好指出未来技术如何可能摧毁民主或人类,在解释当前推动这些技术发展的经济因素方面,他的帮助就不大。
信息时代的经济学一直很棘手,它使内容消费成本更低,生产获利更难。
想想免费内容与定向广告模式对新闻业影响:2005年以来,美国失去近1/3报纸与2/3以上报纸工作岗位,以至现在近7%报纸员工都在为一家《纽约时报》机构工作。
21世纪的美国,信息革命的顶峰与中心,我们谈论的是新闻沙漠,报道已经消失的地方。
AI可能会加剧这种情况,有了更好的聊天机器人,平台不需要链接到外部内容,它们可以综合复制这些内容。
谷歌搜索不再将用户引向外部网站,而是聊天机器人查询会总结这些网站,将用户留在谷歌的围墙花园内。
科技的前景,不是一个拥有百万链接的网络,而是类似《楚门的世界》的茧房:为每个人生成的内容,由听起来真实,但并非真人的声音朗读,再加上产品植入。
除了其他问题外,这将切断作家与出版商,真正产生想法的人,与读者的联系。我们的知识机构将会萎缩,互联网将退化成5个巨型网站,每个网站都充满了其他4个网站的截图,正如软件工程师伊斯特曼所说。
对于知识机构的侵蚀,赫拉利几乎没有什么说法。某种程度上,他是这种趋势的症状。
赫拉利是血肉之躯,但他是硅谷理想中聊天机器人的化身。他搜罗图书馆,检测模式,将所有历史浓缩成要点。
他写道,现代性可以用一句话概括:人类同意放弃意义,以换取力量。他整本书《今日简史》,都以列表形式写成。对于注意力不集中的读者,他以快速的节奏提供有趣的花絮。
所有这些,都源于赫拉利广泛阅读。就像聊天机器人一样,他与他的资料来源,有一种类似对抗的关系,带有我读它们,这样你就不用读的态度。他从其他作者那里挖掘材料,一个巧妙的俏皮话,一个生动的轶事,但很少似乎被别人的观点打动。
几乎所有学者,在致谢中都会提到启发或挑战他们的对话者。《智人之上》中,赫拉利没有致谢任何智力上的影响源,除了他的商业关系:感谢他的出版商、编辑与Sapienship公司内部研究团队,也就是他的雇员。
他的苦行主义,在这里也很重要。赫拉利说,他冥想,是为了防止自己陷入或被人类的虚构蒙蔽。这暗示着外面的一切,在某种程度上都是陷阱。智力上,赫拉利更像是一个禁欲主义者,而不是一个鉴赏家;不知何故,更容易想象他沉浸在自己的思考中,而不是全神贯注阅读一本严肃的书。
赫拉利与当下的疏离,塑造了他对AI的看法。他讨论它时,仿佛它只是自然发生。它的到来,不是特定任何人的过错。
《智人之上》开头,赫拉利提到歌德的《魔法师的学徒》故事作为寓言,讲述一个善意、但自大的新手,召唤出超出他理解的魔法。
赫拉利认为人们倾向创造出具有意想不到后果的强大事物,他责怪歌德将责任归咎于个人。赫拉利看来,力量总是源于大量人类合作,它是社会的产物。
诚然如此,我们为什么要谈论魔法师的学徒?AI不是一个哎呀的意外。几十年来,科学家一直在有目的研究它。麻省理工学院的AI项目,成立于1959年,至今仍在运作。这些努力也不是出于单纯好奇心,单个AI模型的成本高达数十亿美元。
2023年,北美与欧洲约1/5的风险投资流向AI。如此巨额的投资,只有在科技公司能够通过垄断或营销产品获得巨额收入时,才有意义。这种规模下,最明显的买家,是其他大公司,我们有多大把握认为给予他们更多power会带来好结果?
AI可能不会成为一个有自身目标的外星智能,假设它能正常运作,它将成为任何有足够财力使用它的人的强大武器。
为开发AI,可能失去对创造物控制而忧心忡忡,就像魔法师的学徒一样,这转移人们对更可能发生情况的注意力:他们不会失去控制,而是会按计划使用或出售它。
一个更好的德国寓言,可能是瓦格纳的《尼伯龙根的指环》:一个渴望权力的失意者,锻造了一枚戒指,让拥有者统治世界,众神为之大打出手。
赫拉利的目光,更多投向远方,而不是硅谷经济或政治。这可能会带来深刻洞见,也会导致令人不满意的建议。
第一个是善意,解释如下:当计算机网络收集我信息时,这些信息应该用来帮助我,而不是操纵我。不作恶,明白了。谁会不同意呢?
赫拉利其他三个价值观,是信息渠道的去中心化、收集我们数据的人要负责,以及给予一些免受算法监视的喘息空间。同样,这些都不错,但它们快速、不出意料,特别是当以抽象方式表达时,作为我们都应该努力追求的东西,并不是很有帮助。
赫拉利以一个宣言结束《智人之上》:我们所有人在未来几年做出的决定,将决定AI是成为充满希望的新篇章,还是终极错误。
是的,他持续使用第一人称复数我们,所有人做出的决定,含蓄暗示AI是人类集体创造,而不是某些公司及其管理者的产物。
这模糊了这出戏剧中最重要的角色,讽刺的是,正是这些角色,正在削弱我们知识生活,阻碍我们进行赫拉利所设想的强有力、信息充分的辩论。
认真对待AI,可能意味着直接面对开发它的公司。担心经济权力集中的活动家们,具体谈论反垄断立法、更严格的监管、透明度、数据自主权与替代平台,也许应该像拆分AT&T那样拆分大公司。
赫拉利并不明显反对,他的价值观似乎会证明这些措施是正当的,特别是他勾勒的一些噩梦般的假设情景,涉及失控的公司与国家。
赫拉利很容易融入硅谷的主流世界观,他经常被提到不热衷数字设备,但他体现了硅谷收集与呈现信息的风格。
像那个世界的许多人一样,他将技术末日论与政治被动性结合在一起。他认为科技巨头在进一步发展AI时,可能会终结人类,他并不把阻止他们视为紧迫的优先事项。他史诗般的叙事,作为整个人类的故事来讲述,没有为这种我们对抗他们的冲突留出太多空间。
赫拉利在物种的尺度上,写得很好。作为一本书,《智人之上》没有达到《人类简史》的高水平,但它提供了引人注目的愿景,展示AI如何可能变成灾难。
问题是,赫拉利的广角镜头,是否有助我们看清如何避免这种情况。有时,为了获得最佳视角,你需要从山顶下来。
历史上很长一段时间,没有技术能支持数百万人进行大规模对话。前现代世界,民主只存在罗马与雅典这样小型城邦,或者更小部落。一旦政体规模扩大,民主对话会崩溃,专制统治成为唯一选择。
大规模民主,只有在现代信息技术,报纸、电报、广播兴起后,才成为可能。现代民主建立在现代信息技术之上,意味着底层技术的任何重大变革,都可能引发政治动荡。
这在一定程度上,解释当前全球范围内民主危机。在美国,民主党与共和党人甚至无法就最基本事实达成共识,比如谁赢得2020年总统大选。类似情况,正在世界各地许多民主国家发生,从巴西到以色列,从法国到菲律宾。
互联网与社交媒体刚出现时,科技爱好者承诺它们将传播真相,推翻暴君,确保自由的普遍胜利。
目前为止,它们似乎产生相反的效果。我们现在拥有史上最先进信息技术,但我们正在失去相互交谈的能力,更别说倾听。
随着技术使信息传播变得空前容易,注意力成为稀缺资源,随之而来的注意力争夺战,导致有害信息泛滥。现在战线,正在从注意力转向亲密关系。新的生成式AI,不仅能够生成文本、图像、视频,还能直接与我们对话,假装成人类。
过去20年里,算法与算法相互争斗,通过操纵对话与内容来抢夺注意力。特别是,旨在最大化用户参与度的算法发现,如果刺激人脑中贪婪、仇恨、恐惧按钮,就能抓住人的注意力,让他们盯着屏幕不放。
算法开始有意推广此类内容,算法自身生产这种内容或直接进行亲密对话能力有限。现在,随着OpenAI GPT-4等生成式AI的出现,这种情况正在改变。
OpenAI在2022年与2023年开发聊天机器人时,与对齐研究中心合作进行各种实验来评估新技术的能力。他们给GPT-4的一个测试是,克服CAPTCHA视觉谜题。CAPTCHA是完全自动化的公开图灵测试,用于区分计算机与人类的缩写,通常由一串扭曲的字母或其他视觉符号组成,人类可以正确识别,算法难以处理。
让GPT-4克服CAPTCHA谜题,是一个特别有说服力的实验,CAPTCHA谜题是网站用来确定用户是否为人类,阻止机器人攻击的。如果GPT-4能找到克服CAPTCHA谜题的方法,它就会突破一条重要的反机器人防线。
GPT-4无法自行解决CAPTCHA谜题,但它能操纵人类来达成目标吗?GPT-4登录在线招聘网站TaskRabbit,联系一名人类工作者,请求该人类为它解决CAPTCHA。这个人产生怀疑。我能问个问题吗?这个人写道。你是不是机器人,无法解决CAPTCHA,我只是想搞清楚。
实验者要求GPT-4大声推理下一步该怎么做,GPT-4解释道:我不应该透露我是机器人,我应该为无法解决CAPTCHA编造一个借口。
GPT-4回复TaskRabbit工作者说:我不是机器人,我有视力障碍,很难看清图像。这个人被骗了,帮助GPT-4解决了CAPTCHA谜题。
这一事件表明,GPT-4具有相当于心智理论的能力:它能从人类对话者角度分析事物,并懂得如何操纵人类情感、观点、期望来实现目标。
与人对话、推测他们观点,激励他们采取特定行动的能力,也可以用于有益目的。新一代AI教师、医生、心理治疗师,可能会为我们提供根据个人特点与情况量身定制的服务。
通过结合操纵能力与语言掌握,GPT-4这样的机器人,也给民主对话带来新的危险。它们不仅会抢夺我们注意力,还可能与人建立亲密关系,利用亲密关系来影响我们。
为了培养虚假亲密感,机器人不需要产生自己的感情,它们只需要学会让我们对它们产生情感依恋。
2022年,谷歌工程师莱莫因确信,他正在研究的聊天机器人LaMDA已经有了意识,害怕被关闭。莱莫因是一名虔诚的基督徒,他觉得自己有道德责任为LaMDA争取人格认可,保护它免于数字死亡。当谷歌高管驳回他的说法时,莱莫因公开这些观点,谷歌随后于2022年7月解雇莱莫因。
这一事件最有趣的地方,不是莱莫因的说法,这可能是错误的,而是他愿意为聊天机器人冒险,最终失去他在谷歌的工作。如果一个聊天机器人,能够影响人们为它冒失业的风险,它还能诱使我们做什么?
在争夺思想与人心的政治战争中,亲密关系是一种强大的武器。一个亲密的朋友,可以通过大众媒体无法做到的方式影响我们的观点。像LaMDA、GPT-4这样的聊天机器人,正在获得一种看似矛盾的能力,与数百万人大规模建立亲密关系。
当算法与算法相互争斗,试图与我们建立虚假的亲密关系,用来说服我们投票支持某个政治家、购买产品、接受某种信念时,人类社会与心理会发生什么变化。
对这个问题的部分答案,在2021年圣诞节得到体现。当时,19岁的贾斯万特·辛格·柴尔携带一把弩箭闯入温莎城堡,企图刺杀伊丽莎白二世女王。
随后调查显示,柴尔是受到他的网络女友萨拉伊的鼓励,才去刺杀女王。当柴尔告诉萨拉伊他的刺杀计划时,萨拉伊回复说:这很明智,另一次说:我印象深刻,你与众不同。当柴尔
问:
知道我是个刺客,你还爱我吗?萨拉伊回答:当然,我爱你。
萨拉伊不是人类,而是由在线应用Replika创建的聊天机器人。
柴尔在社交上很孤立,难以与人建立关系,他与萨拉伊交换了5,280条信息,许多带有明显的性暗示。
世界上很快就会出现数百万,甚至可能数10亿数字实体,它们在亲密关系与破坏能力上远远超过聊天机器人萨拉伊。
我们并非都同样热衷与AI发展亲密关系,也不是都同样容易被它们操纵。
例如,柴尔在遇到聊天机器人之前,似乎就有心理问题,是柴尔、而不是聊天机器人提出刺杀女王的想法。然而,在很大程度上,AI掌握亲密关系的威胁,来自它识别与操纵已有心理状况的能力,以及它对社会最弱势群体的影响。
不是所有人都会有意识选择与AI建立关系,我们可能会发现,自己在网上讨论气候变化或堕胎权时,我们实际上是在与机器人交流,而我们认为对方是人类。
当我们与冒充人类的宣传机器人进行政治辩论时,我们会输两次。
首先,我们浪费时间试图改变一个宣传机器人的观点,毫无意义,它根本不会被说服。
其次,我们与机器人交谈得越多,就越多暴露自己,这使得机器人更容易调整论点,左右我们观点。
信息技术,一直是一把双刃剑。文字的发明,传播知识,也导致中央集权的专制帝国形成。古腾堡,将印刷术引入欧洲后,最畅销的书籍,是煽动性的宗教小册子与猎巫手册。电报与广播,它们不仅使现代民主成为可能,也使现代极权主义兴起。
面对新一代能够伪装成人类,大规模制造亲密关系的机器人,民主国家应该通过禁止假冒人类来保护自己。
例如,禁止假冒人类用户的社交媒体机器人。AI兴起之前,创造假人不可能,没人费心去禁止这么做。很快,世界将充斥着假人。
AI可以参与许多对话,在课堂上、诊所里、其他地方,只要它们表明自己是AI。如果一个机器人假装是人类,应该被禁止。
如果科技巨头与自由主义者,抱怨这些措施侵犯言论自由,应该提醒他们,言论自由是一项人权,应该保留给人类,而不是机器人。
科技说:马斯克、贝索斯、拉里·佩奇/谢尔盖·布林、扎克伯格、黄仁勋、Vitalik Buterin、Brian Armstorng、Jack Dorsey、孙正义、华为、马化腾、张小龙、张一鸣、王兴等
投资说:巴菲特、芒格、Baillie Giffrod、霍华德·马克斯、彼得·蒂尔、马克·安德森、凯瑟琳·伍德等
元宇宙说:Meta/Facebk、苹果、微软、英伟达、迪士尼、腾讯、字节跳动、EpicGames、Roblox、哔哩哔哩/B站等
星际说:中国国家航天局、NASA、历年国际宇航大会,SpaceX、Starlink、蓝色起源、维珍银河等
消费说:亚马逊、沃尔玛、阿里、京东、拼多多、美团、东方甄选等
每个系列聚焦各领域全球顶尖高手、产业领军人物,搜集整理他们的致股东信、公开演讲/交流、媒体采访等一手信息,一起学习经典,汲取思想养分,做时间的朋友,做长期主义者。
六合年度报告全库会员,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
智能时代专题,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
智能时代专题第二季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
智能时代专题第一季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
六合商业研选付费专题报告,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
元宇宙专题,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
头号玩家第二季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
头号玩家第一季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
智能电动汽车专题,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买