专栏名称: 六合商业研选
六合咨询立足新经济,挖掘明日之星,发现价值,传播价值;国际化视野、多角度观察、深度思考、体系化研究,持续提升研究广度与深度,全面覆盖一级、新三板、二级(A股+美股+港股);深度剖析优质企业商业模式与投资价值,前瞻性洞察行业本质与发展趋势。
目录
相关文章推荐
丁香医生  ·  熬夜后,怎么补觉对身体伤害更小? ·  昨天  
丁香医生  ·  5 个以为省钱的好习惯,其实让你进医院! ·  2 天前  
51好读  ›  专栏  ›  六合商业研选

【长期主义】第297期智能说:赫拉利新书《智人之上》内容速递,服务器、钢铁、电力成为AI下一轮竞争关键

六合商业研选  · 公众号  ·  · 2024-08-31 06:30

正文


以色列著名历史学家、哲学家、作家尤瓦尔·赫拉利,重磅新作《智人之上:从石器时代到 AI 时代的信息网络简史》,将于 2024 9 10 日全球同步上市。英国卫报近日发布独家长文,通过摘录 书中 内容,分享一些书中核心观点,包括 AI 如何改变全球政治格局,影响全球经济、社会、文化等。

红杉美国合伙人、前 Coatue COO 与合伙人 David Cahn ,主导投资 Runway Hugging Face Notion AI 领域明星项目,近日参加美国知名播客节目 20VC ,接受主持人 Harry Stebbings 访谈,针对 AI 领域资本支出、行业竞争等话题进行讨论。 David Cahn 认为,随着 AI 模型规模扩大, 服务器、钢铁、电力, 将取代传统的模型、算力、数据,成为赢得 AI 下一轮竞争的关键因素。

本期长期主义,选择赫拉利新书《智人之上》内容速递、红杉美国合伙人 David Cahn 访谈,不懂经、乌鸦智能说发布,六合商业研选精校,分享给大家, Enjoy

正文:

全文 18,074

预计阅读 37 分钟

赫拉利新书《智人之上》独家速递:永远不要唤醒你无法掌控的力量 AI
时间: 2024 8 26

来源:不懂经

字数: 7,965

我从来没觉得尤瓦尔 · 赫拉利这个犹太学者、世界经济论坛的顾问,对人类有什么深沉的善意,他一直在宣扬 AI 对人类威胁,还特别耸人听闻,让我搞不懂他葫芦里在卖什么药,大概是为了卖书。

赫拉利新书《智人之上 Nexus :从石器时代到 AI 时代的信息网络简史》, 2024 9 10 日全球同步上市。

英国卫报刚发了一篇独家长文,是从书中摘录出来的内容。

先划几条重点:

1 、人类力量从来不是个人行为的结果,而总是源于大规模的人类合作。

2 、人类倾向唤醒无法控制的力量,这不是源于个人心理,而是源于人类物种大规模合作的独特方式。

3 、现在人类面临的问题,是一个网络问题。具体来说,是信息问题。

4 1/3 专家认为, AI 毁灭人类可能性超过 10%

5 AI 最大威胁是,它不是一个工具,而是一个主体,它可能比人类更聪明、更强大,我们无法完全理解与控制它。

6 、人类无法团结应对 AI 的挑战。

7 21 世纪,要统治一个殖民地,不需要派出炮舰,只需要攫取数据。

8 、到 2030 年, AI 可能为全球经济增加 15.7 万亿美元,中美两国可能拿走其中 70%

9 、中美两国将走上非常不同的 AI 之路。

10 、世界划分为相互对立的数字帝国情形,与许多领导人的政治愿景不谋而合。

11 、过去几十年来,世界的主要隐喻是网络,未来几十年的主要隐喻可能是信息茧房。

纵观历史,许多传统都认为人性中存在某种致命缺陷,诱使我们追求无法驾驭的力量。

希腊神话中法厄同 Phaethon 故事,讲述一个男孩发现自己是太阳神赫利俄斯之子。为证明神性,法厄同要求驾驶太阳战车。赫利俄斯警告说没有人能控制天马,法厄同执意要求,直到太阳神让步。

法厄同得意洋洋升上天空,很快失控。太阳偏离轨道,烧毁植被,杀死众生,威胁焚烧整个地球。

宙斯出手干预,用雷电击中法厄同。这个狂妄自大的人,像流星一样坠落,自己也燃烧起来。众神重掌天空,拯救世界。

2 千年后,工业革命初期,机器开始取代人类完成众多任务。约翰 · 沃尔夫冈 · · 歌德发表一个类似警示故事《魔法师的学徒》。歌德的诗,后来被迪士尼改编成动画片,由米老鼠主演,讲述一个老魔法师离开工作室时,让年轻学徒看管,并给他一些杂务,如从河里取水。学徒想偷懒,用魔法咒语让扫帚取水。他不知如何停止扫帚,它不停取来越来越多水,威胁淹没整个工作室。

学徒慌了,用斧头把扫帚劈成两半,发现每一半都变成新扫帚。现在两把魔法扫帚,在淹没工作室。老魔法师回来时,学徒恳求帮助:我召唤的精灵,现在无法摆脱了。魔法师立即解除咒语,止住洪水。这给学徒,也给人类,上了很清楚的一课,永远不要唤醒你无法驾驭的力量。

这些关于学徒与法厄同的警示寓言,在 21 世纪告诉了我们什么?显然我们人类拒绝听从警告。我们已经打破地球气候平衡,唤醒数十亿个魔法扫帚、无人机、聊天机器人与其他可能失控的算法精灵,可能引发一场灾难性的后果洪流。我们该怎么办?这些寓言没有给出答案,只是等待某个神或魔法师来拯救我们。

法厄同神话,与歌德的诗,之所以无法提供有用建议,是它们误解了人类获得力量的方式。这两个寓言中,一个人获得巨大力量,被傲慢与贪婪腐蚀。结论是,我们有缺陷的个人心理,导致滥用权力。这种粗浅分析,忽视一个事实:人类力量从来不是个人行为的结果,力量总是源于大规模人类合作。

并非我们个人心理导致滥用权力,除了贪婪、傲慢与残酷,人类还有爱、同情、谦逊与欢乐的能力。

在我们物种中最坏的成员里,贪婪与残酷占据上风,导致坏人滥用权力。但为什么人类社会会选择将权力交给最坏的成员?例如, 1933 年,大多数德国人并非精神病患者,为什么他们会投票给希特勒?

我们倾向于唤醒无法控制的力量,这不是源于个人心理,而是源于我们物种大规模合作的独特方式。人类通过建立大型合作网络获得巨大力量,我们建立网络的方式,使我们倾向于不明智使用力量。

我们大多数网络,都是通过传播虚构、幻想与集体妄想来建立与维持,从魔法扫帚到金融系统,我们问题是一个网络问题。

具体来说,这是一个信息问题。信息是维系网络的粘合剂,当人们接受错误信息时,他们很可能做出错误决定,不管他们个人多么聪明善良。

近几代人,经历有史以来信息产生量与速度的最大增长。每部智能手机包含的信息,比古代亚历山大图书馆还多,并能让用户瞬间与全球数十亿人联系。尽管所有这些信息都以惊人速度流通,人类比以往任何时候都更接近自我毁灭。

尽管,或者也许正是,我们拥有如此多数据,我们仍在继续向大气排放温室气体,污染河流与海洋,砍伐森林,破坏栖息地,使无数物种濒临灭绝,危及我们自身物种的生态基础。

我们还在生产越来越强大的大规模杀伤性武器,从热核弹到末日病毒。我们领导人并不缺乏关于这些危险的信息,他们非但没有合作寻找解决方案,反而正在逼近一场全球战争。

拥有更多信息,会让情况变好还是变坏?我们很快就会知道答案。许多公司与政府正在竞相开发人类历史上最强大的信息技术 AI ,一些领先企业家,如美国投资者马克 · 安德森,认为 AI 最终将解决人类所有问题。

2023 6 6 日,安德森发表《为什么 AI 将拯救世界》,充满大胆陈述,如:我带来好消息, AI 不会毁灭世界,可能会拯救世界。他总结道: AI 发展与普及,远不是我们应该害怕的风险,而是我们对自己、对子孙后代与对未来的道德义务。

其他人更加怀疑,不仅哲学家与社会科学家,许多领先的 AI 专家与企业家,如约书亚 · 本吉奥、杰弗里 · 辛顿、埃隆 · 马斯克、萨姆 · 奥特曼等,都警告说 AI 可能会摧毁我们文明。

2023 年,对 2,778 AI 研究人员调查显示,超过 1/3 人认为,先进 AI 导致人类灭绝等灾难性后果的可能性至少为 10%

2023 年,包括中国、美国、英国在内的近 30 个政府,签署关于 AI 的布莱切利宣言,承认 AI 模型最重要的能力可能会造成严重、甚至是灾难性的伤害,无论是故意还是无意。专家与政府使用这种末日般的措辞,并非想唤起好莱坞式的叛逆机器人在街上横行的景象。这种场景不太可能发生,它只会分散人们对真正危险的注意力。

AI 对人类构成前所未有的威胁,它是历史上第一项能自主决策与创造新想法的技术。以前所有人类发明,都是赋予人类力量,无论新工具多么强大,使用决策权仍在我们手中。核弹不会自己决定杀谁,也不能自我改进或发明更强大的炸弹。

相比之下,自主无人机,可以自己决定杀谁, AI 可以创造新颖炸弹设计、前所未有军事战略与更好的 AI AI 不是工具,它是一个行为主体。 AI 最大威胁是,我们正在唤醒无数新的强大主体降临地球,它们可能比我们更聪明、更富想象力,我们不完全理解或控制它们。

传统上, AI 被用作 Artificial intelligence 缩写。也许最好将其视为外星智能 alien intelligence 的缩写。

随着 AI 发展,它变得在依赖人类设计的意义上,越来越不人工,越来越外星。

许多人试图用人类水平智能的标准来衡量,甚至定义 AI ,关于我们何时可以期待 AI 达到这一水平,存在热烈争论,这个标准具有深度误导性。这就像用鸟类水平飞行的标准,来定义与评估飞机。 AI 不是在朝着人类水平智能前进,它正在发展一种外星类型的智能。

即使在当前 AI 革命的萌芽阶段,计算机已经在为我们做决定,是否给我们抵押贷款、是否雇用我们、是否把我们送进监狱。像生成式 AIGPT-4 ,已经在创作新的诗歌、故事与图像。

这种趋势只会增加与加速,使我们更难理解自己的生活。我们能否相信计算机算法做出明智决定,并创造更美好的世界?这比相信一把魔法扫帚取水,是一个更大的赌注,我们赌上的不仅仅是人类生命, AI 已经能够自主创作艺术与进行科学发现。

未来几十年里,它很可能获得创造新生命形式的能力,无论是通过编写遗传密码,还是通过发明给无机实体赋予生命的无机代码。 AI 可能会改变不仅仅是我们物种的历史进程,而是所有生命形式的进化。

穆斯塔法 · 苏莱曼是 AI 领域世界级专家,是 DeepMind 联合创始人与前负责人, DeepMind 是世界上最重要的 AI 企业之一,负责开发 AlphaGo 程序等成就。

AlphaGo 被设计用来下围棋,这是一种策略棋类游戏, 2 名玩家通过包围与占领领土来试图击败对方。围棋起源于古代中国,比国际象棋复杂得多。即使在计算机击败人类世界象棋冠军之后,专家们仍然认为计算机永远不会在围棋上超越人类。

这就是为什么 AlphaGo 2016 3 月击败韩国围棋冠军李世石时,围棋专业人士与计算机专家都感到震惊。在苏莱曼 2023 年著作《即将到来的浪潮》中,描述他们比赛中最重要的时刻之一,这一刻重新定义了 AI ,在许多学术与政府圈子里被认为是历史的关键转折点。这发生在 2016 3 10 日的第二局比赛中。

苏莱曼写道,来到第 37 手,这一步毫无道理。 AlphaGo 搞砸了,盲目遵循看似必败的策略,没有专业棋手会这样下。现场解说员,都是最高级别的专业棋手,说这是一个非常奇怪的一步,认为这是一个错误。这步棋如此不寻常,以至于李世石花了 15 分钟来回应,甚至起身走开一会儿。当我们从控制室观看时,紧张气氛难以置信。当残局临近时,那个错误的一步被证明是关键的, AlphaGo 再次获胜,围棋策略正在我们眼前被重写。我们 AI 发现了几千年来,最杰出的棋手都未曾想到的想法。

37 手,之所以成为 AI 革命的象征,有两个原因。首先,它展示了 AI 的外星特性。在东亚,围棋不仅是一种游戏,它是珍贵的文化传统。

2500 多年来,数千万人下围棋,围绕这项游戏,发展出不同策略与哲学流派。这漫长的岁月里,人类思维只探索了围棋领域某些区域,其他区域未被触及,人类思维根本没有想到要去那里探索。 AI 摆脱人类思维局限,发现并探索这些以前隐藏的区域。

其次,第 37 手展示 AI 的不可理解性。 即使在 AlphaGo 下出这一步并获胜之后,苏莱曼与他团队无法解释 AlphaGo 是如何决定下这一步的。即便法院下令 DeepMind 向李世石解释,也没有人能完成这个命令。

苏莱曼写道:在 AI 中,走向自主的神经网络目前是无法解释的,你无法逐步解释决策过程,准确说明为什么算法产生特定预测。工程师无法轻易深入内部,详细解释导致某事发生的原因。 GPT-4 AlphaGo 等都是黑匣子,它们的输出与决策,基于不透明、极其复杂的微小信号链。

不可理解的外星智能崛起,对所有人类构成威胁,尤其是对民主构成威胁。如果越来越多关于人们生活的决策在黑匣子中做出,以至选民无法理解与质疑,民主就会停止运作。

特别是,当不仅关于个人生活的关键决策,甚至像美联储利率这样集体事务的决策,都由不可理解的算法做出时,会发生什么?人类选民可能继续选择一位人类总统,但这不就只是一个空洞的仪式?即使在今天,也只有一小部分人真正理解金融系统。

2014 年,对英国议员调查发现,只有 12% 的人,准确理解银行发放贷款时,会创造新的货币。这一事实,是现代金融系统最基本的原则之一。

正如 2007~2008 年金融危机所表明的,一些复杂的金融工具与原理,只有少数金融巫师才能理解。当 AI 创造出更复杂的金融工具,理解金融系统的人数降到 0 时,民主会怎样?

用现代金融的语言,翻译歌德的警示寓言,想象以下场景:一个厌倦了金融工作繁琐的华尔街学徒,创造一个名为扫帚的 AI ,提供 100 万美元的种子资金,命令它赚更多钱。对于 AI 来说,金融是理想的游乐场,它是纯粹的信息与数学领域。

AI 仍然难以自主驾驶汽车,这需要在复杂物理世界中移动与互动,成功难以定义。相比之下,要进行金融交易, AI 只需处理数据,可以轻松用美元、欧元、英镑等数学方式衡量成功。更多美元,任务完成。

为了追求更多美元,扫帚不仅设计新的投资策略,还想出人类从未想过的全新金融工具。几千年来,人类思维只探索了金融领域某些区域。他们发明货币、支票、债券、股票、 ETF CDO 、其他金融魔法。许多金融领域未被触及,人类思维根本没有想到要去那里探索。扫帚摆脱人类思维局限,发现并探索这些以前隐藏区域,做出相当于 AlphaGo 37 手的金融举动。

几年间,当扫帚带领人类进入金融处女地时,一切看起来都很美好。市场飙升,金钱源源不断,每个人都很高兴,然后发生一场比 1929 年或 2008 年更严重的崩盘。

没有一个人,无论是总统、银行家还是公民,知道是什么导致这场崩盘,也不知道该如何应对。

既没有神,也没有魔法师来拯救金融系统,绝望的政府,向唯一能够理解正在发生什么的实体扫帚,寻求帮助。

AI 提出几项政策建议,远比量化宽松更大胆,也更不透明。扫帚承诺这些政策将挽救局面,人类政治家无法理解扫帚建议背后的逻辑,担心它们可能会完全瓦解世界的金融,甚至社会结构。

他们应该听从 AI 吗?

计算机没有强大到完全脱离我们的控制,或自行摧毁人类文明。只要人类团结一致,我们就能建立机构来监管 AI ,无论是在金融还是战争领域。不幸的是,人类从未团结一致。我们一直被坏人困扰,也被好人之间的分歧困扰。 AI 的崛起,对人类构成存在威胁,不是计算机的恶意,而是我们自身缺陷。

一个偏执的独裁者,可能会把无限权力交给一个有缺陷的 AI ,包括发动核打击的权力。如果 AI 随后犯错误,或开始追求意料之外的目标,结果可能是灾难性,不仅对那个国家。

恐怖分子可能会利用 AI 引发全球大流行,恐怖分子自己可能对流行病学知之甚少, AI 可以为他们合成新的病原体,从商业实验室订购或在生物 3D 打印机中打印,设计最佳策略,通过机场或食品供应链在全世界传播。

如果 AI 合成的病毒像埃博拉病毒一样致命,像新冠病毒一样具有传染性,又像艾滋病毒一样缓慢发作,会怎样?等到第一批受害者开始死亡,世界警觉到危险时,地球上大多数人可能已经被感染。

人类文明可能被社会大规模杀伤性武器摧毁,比如破坏我们社会纽带的故事。在一个国家开发的 AI ,可能被用来在许多其他国家释放虚假新闻、假币与假人的洪流,使人们失去信任任何事物或任何人的能力。

许多社会,无论是民主国家还是独裁国家,可能都会采取负责任的行动来监管这种 AI 的使用,打击坏人,约束自己统治者与狂热分子的危险野心。如果只有少数几个社会没有这样做,也足以危及整个人类。

气候变化,可以摧毁即使采取出色环境法规的国家,它是一个全球性而非国家性问题。 AI 也是一个全球性问题,要理解新的计算机政治,仅仅考察各个社会如何应对 AI 是不够的,我们还需要考虑 AI 如何改变全球层面上社会之间的关系。

16 世纪,西班牙、葡萄牙、荷兰征服者,建立历史上第一批全球帝国时,他们带来帆船、马匹、火药。

19 世纪与 20 世纪,英国人、俄国人、日本人争夺霸权时,他们依靠蒸汽船、火车头、机关枪。

21 世纪,要统治一个殖民地,不再需要派出炮舰,需要攫取数据。少数几个收集世界数据的公司或政府,可能会将其他地区变成数据殖民地。它们控制的领土,不是通过公开的军事力量,而是通过信息。

想象一下这样的情况, 20 年后,当北京或旧金山某个人拥有你国家每个政治家、记者、上校、 CEO 全部个人历史:他们发过的每一条短信,进行过的每一次网络搜索,患过的每一种疾病,享受过的每一次性行为,讲过的每一个笑话,收过的每一次贿赂。

到那时,你是生活在一个独立的国家,还是生活在一个数据殖民地?当你的国家发现自己完全依赖它无法有效控制的数字基础设施与 AI 驱动的系统时,会发生什么?

经济领域,以前帝国建立在土地、棉花、石油等物质资源之上,这限制帝国将经济财富与政治权力集中在一个地方的能力。物理学与地质学,不允许将世界上所有土地、棉花、石油都转移到一个国家。

新的信息帝国不同,数据可以以光速移动,算法不占用太多空间。世界的算法力量,可以集中在一个中心。一个国家的工程师可能编写代码,控制运行整个世界所有关键算法的密钥。

AI 与自动化,对较贫穷的发展中国家构成特殊挑战。在由 AI 驱动的全球经济中,数字领导者获得大部分收益,可能利用他们财富重新培训自己劳动力,从而获得更多利润。

落后国家的非技术工人价值将下降,导致他们进一步落后。结果可能是旧金山与上海出现大量新工作与巨大财富,世界其他许多地方面临经济毁灭。

全球会计公司普华永道预测,到 2030 年, AI 预计将为全球经济增加 15.7 万亿美元。如果当前趋势继续,预计中国与美国,两个领先的 AI 超级大国,将共同拿走这笔钱的 70%

冷战期间,铁幕在许多地方是由金属制成,铁丝网将一个国家与另一个国家分开。现在,世界越来越被硅幕分割。智能手机上的代码,决定生活在硅幕的哪一边,哪些算法运行你的生活,谁控制你的注意力,你的数据流向何处。

越来越难以跨越硅幕获取信息,比如中国与美国之间,或俄罗斯与欧盟之间。

两边越来越多运行在不同数字网络上,使用不同的计算机代码。在中国,你不能使用谷歌或 Facebook ,也不能访问维基百科。在美国,很少有人使用领先的中国应用程序,如微信。

更重要的是,这两个数字领域不是彼此的镜像。百度不是中国的谷歌,阿里不是中国的亚马逊。它们有不同目标、不同数字架构,对人们生活产生不同影响。这些差异,影响着世界上大部分地区,大多数国家依赖中国与美国软件,而不是本地技术。

美国施压其盟友与客户避免使用中国硬件,如华为 5G 基础设施。特朗普政府阻止新加坡公司收购领先的美国计算机芯片生产商高通的尝试。他们担心外国人可能会在芯片中插入后门,或阻止美国政府在那里插入自己后门。

特朗普与拜登政府,都对开发 AI 所需的高性能计算芯片贸易设置严格限制。美国公司现在被禁止向中国出口此类芯片。这在短期内阻碍中国在 AI 竞赛中发展,长远来看,它推动中国发展出完全独立的数字领域,甚至在最小的构建上也与美国数字领域不同。这两个数字领域,可能会越来越远离。

几个世纪以来,新的信息技术推动全球化进程,让世界各地人们更紧密联系在一起。矛盾的是,今天信息技术如此强大,有可能通过将不同人封闭在独立息茧房中而分裂人类,结束单一共享人类现实的想法。几十年来,世界的主要隐喻是网络,未来几十年主要隐喻可能是茧房。

中国与美国目前是 AI 竞赛领跑者,但它们并不孤单。其他国家或集团,如欧盟、印度、巴西与俄罗斯,可能会试图创建自己数字茧房,每个茧房都受到不同政治、文化与宗教传统的影响。世界可能不会被划分为两个全球帝国,而是被划分为十几个帝国。

新帝国之间竞争越激烈,武装冲突危险越大。美国与苏联之间的冷战,从未升级为直接军事对抗,主要归功于相互确保毁灭的理论。 AI 时代的升级危险更大,网络战在本质上与核战不同。

网络武器可以使一个国家电网瘫痪,它们也可以用来摧毁秘密研究设施,干扰敌人传感器,煽动政治丑闻,操纵选举或黑入单个智能手机,它们可以悄无声息做到这一切。它们既不会以蘑菇云与火焰风暴宣告自己存在,也不会在发射台到目标之间留下可见痕迹,有时很难知道是否发生攻击或谁发动攻击。发动有限网络战的诱惑很大,升级的诱惑也很大。

第二个关键区别涉及可预测性。冷战就像一场超理性的国际象棋比赛,核冲突中毁灭的确定性如此之大,以至发动战争的愿望相应很小。网络战缺乏这种确定性,没有人确切知道各方在哪里安放逻辑炸弹、特洛伊木马与恶意软件。没有人能确定自己武器在需要时,是否真的会起作用。当下令时,中国导弹会发射吗?或者也许美国人已经入侵它们或指挥链?美国航空母舰会如预期那样运行,还是会神秘关闭或绕圈航行?

这种不确定性,破坏了相互确保毁灭的理论。一方可能会说服自己,无论是对还是错,它可以发动成功的首次打击,并避免大规模报复。更糟糕的是,如果一方认为它有这样机会,发动首次打击的诱惑,可能变得不可抗拒,人们永远不知道机会之窗会开放多长时间。博弈论指出,军备竞赛中最危险的情况,是当一方感觉它有优势,但这个优势正在消失时。

即使人类避免全球战争的最坏情况,新数字帝国的崛起,仍可能危及数十亿人自由与繁荣。 19 世纪与 20 世纪的工业帝国,剥削与压迫他们殖民地,期望新的数字帝国表现得更好是愚蠢的。如果世界被划分为相互对立的帝国,人类不太可能一起合作,克服生态危机或监管 AI 与其他颠覆性技术,如生物工程。

世界划分为相互对立的数字帝国情形,与许多领导人的政治愿景不谋而合。这些领导人认为世界是一个丛林,近几十年的相对和平是一种幻觉,唯一真正的选择是扮演捕食者,还是猎物的角色。

面对这样的选择,大多数领导人会更愿意作为捕食者载入史册,将自己名字添加到不幸的学生被迫记忆的征服者名单中。

应该提醒这些领导人,丛林中出现了一个新的顶级捕食者。如果人类找不到合作与保护共同利益的方法,我们都将成为 AI 手到擒来的猎物。

服务器、钢铁与电力,赢得AI下一轮竞争的关键
时间: 2024 8 8

来源:乌鸦智能说

字数: 10,109

本期 20VC 播客节目中,播客主持人 Harry Stebbings 与红杉美国合伙人、前 Coatue COO 与合伙人 David Cahn AI 领域资本支出、行业竞争进行讨论, David Cahn 主导投资 Runway Hugging Face Notion AI 领域明星项目。

David Cahn 提出很有意思的观点:很多人认为,算力、算法、数据是 AI 发展核心支柱,但服务器、 钢铁、 电力,将取代模型、算力、数据,成为赢得 AI 下一轮竞争的关键条件。

原因在于,随着模型规模越来越大,训练下一代模型需要更多 GPU ,马斯克甚至要建 30 GPU 的集群,这就需要建造全新的数据中心。

建设一个庞大数据中心,是一项混乱、复杂的业务,不仅需要购买足够土地、钢铁、电力,还需要完成从钢与混凝土,到工业部件与 GPU 安装漫长的建造过程。

这将给 AI 行业带来两个变化:

1 、它改变模型之间的交付周期。原本公司在 6~12 个月内训练模型,现在需要增加 18~24 个月的建造时间才能真正开始训练。

2 、它改变了最大竞争优势的来源。新时代,基建效率可能比研究突破更重要。

这样的变化正在发生,科技巨头的年化资本支出,从 1,380 亿美元同比增长到 2,290 亿美元。这 910 亿美元的增量运营支出,相当一部分都花在 AI 数据中心建设上。

AI 会改变世界,还是一个泡沫

Harry Stebbings: 当我们讨论未来发展时,自然会谈到 AI 2024 年,你在《 AI 资本支出的博弈论》中,提出两个问题: AI 会改变世界吗?资本支出是否过高?你说这是两个不同的问题,能解释一下为什么吗?

David Cahn 我研究 AI 已有大约 6 年时间,从 2019 年起,我担任 Weights & Biases 董事会成员,导了 Runway 早期投资,当时还没有任何 AI 视频生成技术。我领导 Hugging Face C 轮融资,我在 AI 领域已经有一段时间。

我对 AI 充满热情,我坚定相信,当我 80 岁时, AI 将彻底改变我们生活与社会运作方式。

我们也在投入数千亿美元资金,这是非常大的金额。整个 SaaS 市场规模也只是 2,500 亿美元,我们现在谈论的资本支出要大得多。

过去 1 年,很多 AI 支持者认为无论投入多少都是值得的, AI 会改变世界,不用担心这些支出。

我不完全反对这种观点,我认为我们需要认真审视这些数字,看这将如何发展,会影响整个生态系统。

相信 AI ,与相信未来 2 年内无限制的资本支出是两回事。你可以相信 AI ,也要意识到未来 24 个月内资本支出可能难以收回。

Harry Stebbings: 我完全同意,我最近与一家大公司高管聊过,他说,这就像曼哈顿计划,一旦开始就不能停止。

David Cahn 我们现在谈论的是扎克伯格刚承认过度建设后的情况,谷歌母公司 Alphabet CEO Sundar Pichai 也提到过这个问题。我认为本周发生了一些重大变化,扎克伯格、 Sundar Pichai 与我都有相同看法。

之前有很多人推崇 AI ,他们认为资本支出不重要,预算不重要。这周你从 Sundar Pichai 与扎克伯格那里听到的声音是,他们明白这有风险,但这是值得冒的风险,他们必须冒这个风险,即使是扎克伯格也没有说这是无风险的。他意思是,如果 AGI 实现了,太好了,这将是一次很好的投资。如果没有实现,这可能会是一项艰难的投资,这是我们必须冒的风险。

Harry Stebbings Sundar Pichai 与扎克伯格的意识觉醒,会导致什么变化?是会减少资本支出,还是会有意识继续超额支出?结果会是什么?

David Cahn 我认为不会有太大变化,这只是我的观点。我不认为任何一家科技巨头能在董事会上说,他们知道如何收回这些投资。

这没关系,他们在做战略决策。如果不投资,竞争对手就会占据优势。人们没有意识到的是,我们正在面对商业史上最强大的寡头垄断之一。

微软、亚马逊、谷歌,加起来拥有 7 万亿美元市值,占全球市值 10% 。在此背景下,他们为了维护自己垄断地位,会不惜进行一种激进资本支出。

很多人会以为像这样的大公司知道一些常人难以知晓的信息,未来 2 年,在 AI 方面的收入会有保障,敢于进行投资。

我并不认同,我认为大家会逐渐认识到,他们的这些投资也是投机性的,同样面临很大风险。

Harry Stebbings: 这些投机性的投资,是由拥有大量资金的既有企业进行。如果成功了,我们将拥有令人惊叹的产品,消费者会从中受益。如果失败了,也没关系,不是我们买单,而是有巨额现金储备的公司承担风险。你怎么看这种观点?

David Cahn 我一直持这种观点,这对创业公司非常有利。 这些科技巨头是算力生产者,创业公司是算力消费者。如果算力生产过剩,价格下跌,创业公司会受益,他们购买这些算力。计算成本的降低,直接转化为创业公司毛利率提升,使公司更有价值。

我很高兴看到这一切的发生,我认为这对经济与技术生态系统都是非常好的。我们需要清楚认识到这种现象,对未来几年发展保持清醒头脑。

Harry Stebbings 也有一种观点认为,这会让权力进一步集中,使得寡头垄断变得更加强大。对此你怎么看?

David Cahn 我认为这很有道理。你可能会认为这些公司太强大,他们正在设置进入壁垒。要成为一个 AI 云服务提供商,需要烧掉一大笔钱,这是一个非常重要的进入壁垒。从这周的言论看,这不是偶然的,这正是他们明确意图,他们不能让其他人攻击他们能下金蛋的核心业务。

现在云计算业务,是 2,500 亿美元的市场,与整个 SaaS 行业规模相当。这就是 Azure 、谷歌、 AWS 控制的业务,他们当然会竭尽全力保护这一块市场。

Harry Stebbings: 我有个难题,我在 20VC 节目中,学到很多像你与 Sam Altman 这样聪明人的知识,我有时会难以调和两个观点:算力的过剩,意味着创业公司可以更低成本获取资源, Sam Altman 又非常坚定认为算力是未来货币,是最重要的东西。这两种观点是相悖,还是可以共存?

David Cahn 我认为它们有些冲突,我来解释一下为什么。

算力是一个委婉的说法,指的是你消耗的资源。如何生成算力非常重要,算力是指在伊利诺伊州某个数据中心中的大量 GPU 与液冷系统等物理设施。这就是为什么关于 AI 的对话,变得如此极端,人们使用这些委婉的说法,比如算力、云计算等,这些并没有真正反映出它们的物理现实。

问题是,科技巨头在未来 2 年内将如何建设数据中心?建设一个数据中心大约需要 2 年时间,每个数据中心成本大约是 20 亿美元。他们会购买目前市场上最好的 H100 芯片,并将其安装在数据中心。

现在想象一下, 2 年后,英伟达 B100 芯片成为主流。他们需要更换所有数据中心里芯片,或者安装这些新的芯片,这些新的芯片更好。液冷系统可能也会改变,需要更换液冷系统。

算力是未来的关键,算力来自于现实世界中建造的物理资产。如果我们建造这些设施时出错,我们就必须面对这些问题,可能需要重新建造。这不是简单的事情,不是说我们现在就可以打造 15 年的算力,并认为万事大吉。这其中有复杂性,有权衡。

大模型竞赛,离不开现金牛

Harry Stebbings: 你认为一家初创公司能做到这些吗?考虑到资本支出的庞大,与你提到的垂直整合,即使 OpenAI Anthropic 能筹集到 10 亿、 20 亿甚至 30 亿美元,微软每天有 3.3 亿美元自由现金流,这是否是一场只有头部公司能玩的游戏?

David Cahn 过去几年证据显示,要参与大模型游戏,你需要现金牛,这个现金牛不能是 AI 业务本身。 Facebook Instagram 的现金牛, Amazon AWS 的现金牛,微软有 Azure 的现金牛,我认为你需要一个现金牛才能竞争。

Harry Stebbings: Facebook 是唯一一家没有云业务作为现金牛的公司,你认为这会如何影响他们的行为?

David Cahn 我认为云服务公司是在防守, Meta 是在进攻,这可能是最简单的解释。云服务公司是在保护他们现有业务, Meta 可以更加有创造性。

我认为 Meta 不需要像云服务公司那样防守,如果他们觉得不值得,他们可以停止投资。云服务公司陷入一种囚徒困境,他们必须继续投资。如果他们不投资,他们有可能失去市场份额,这是历史上最伟大的业务之一。 Meta 可以为未来而战,扎克伯格还很年轻,他做得非常好,我可以想象扎克伯格在 AI 的未来中扮演重要角色。

Harry Stebbings: 如果你是今天的扎克伯格,你会做什么?

David Cahn 我会做他现在正在做的事情。他非常聪明,我认为他正在做的事情是有意义的。


他正在创造一个开源或开源替代品,我认为这对世界有好处,对 Meta 也有好处。我认为 Llama 很棒,它对将在 Llama 之上构建的初创公司是好东西,他们在开源基础上构建。

我认为消费者层面杀手级用例还没出现, Meta 有出色的分发能力。如果他们能解锁这个杀手级用例,他们会找到方法赚钱,我认为 Meta 的策略非常合理。

Harry Stebbings: 鉴于长期来看,这些 AI 公司需要与某个现金牛业务紧密绑定, Anthropic OpenAI ,以及其他一些小公司如 Coherent ,他们会被收购,并成为 Amazon Google 一部分吗?这是他们唯一的出路?

David Cahn 我不知道。看起来目前 AI 领域的很多事情,都涉及反垄断问题。微软可能不想收购 OpenAI Amazon 可能不想收购 Anthropic 。我认为这种情况可能会持续下去,现在很难收购这些公司。你可以收购一些较小的公司,比如我们看到 Inflection Adept ,但像 Anthropic 这样的公司会很难收购。

数据中心的未来发展

Harry Stebbings: 你提到需要用新的 H100 芯片替换旧芯片,如果模型变得更加高效,我们还需要更换这些芯片吗?你认为模型效率的提升,是否可以避免这种更换?

David Cahn 我在博弈论文章中提到一个观点是,如果你对 AI 持乐观态度,你可能会更担心数据中心会过时。

有人说过一句话,我一直在思考:没有人会在同一个数据中心两次训练前沿模型,当你完成训练时, GPU 已经过时,数据中心也变得不合适。这让我想到了哲学家赫拉克利特的名言:人不能两次踏进同一条河流。

假设模型变得更好,假设我们继续遵循规模定律,所有这些好事都发生了。这意味着我们可能需要改变数据中心架构,可能需要新的芯片。现在每个人都在追求 10 GPU 集群,这是目前的尖端,马斯克说他将建立一个 30 GPU 的集群。

如果这些都实现了,这将极大改变数据中心的物理架构与所需基础设施。我认为越来越多的人,可以认为模型就像一个数据中心一样。随着这些模型的规模越来越大,规模定律变得越来越重要。这些研究人员从一个实验室跳到另一个实验室,不同公司之间的实际模型差异越来越小。我认为有一个非常好的论点,即数据中心是最重要的资产,我们需要学习如何建造这些大型数据中心。

Harry Stebbings: 数据中心是如何变化的?你提到它们在房地产方面的变化,从 10 万个到 30 万个服务器,我们会在这变革的过程中看到什么?

David Cahn 现在情况是,很多人都没有注意到这一点。亚马逊在过去 6 个月里公布总计 500 亿美元的新数据中心。这就是我在谈论 AI 时,所说的 6,000 亿美元的问题之一,这些数据中心正在建设中。他们需要雇佣人来建造这些设施。

有家 CyrusOne 公司,还有家 QTS 公司,这些公司是数据中心的房地产开发商。

微软或亚马逊,会找到这些房地产开发商提供数据中心建设需求,房地产开发商会找到 DPR 司,这是建造数据中心的最大总承包商。 DPR 会去找分包商,分包商需要找到 1,000 名电工与其他工作人员,劳动力是数据中心建设最大成本。

分包商会在 Facebook 上打广告说:需要电工,请到伊利诺伊州某个小镇来,我们需要你们建造数据中心。所有这些人,会坐飞机来到这里,他们会住在酒店里。接下来 12 个月里,这一切的物理过程是非常壮观的,我认为这会很有趣。

Harry Stebbings: 考虑到你提到的复杂性,我们是否高估了建设这些数据中心的速度?会不会看到模型的发展速度,远远超过数据中心建设速度,从而带来挑战?

David Cahn 这就是关于规模定律的问题,这回到人们谈论的痛苦教训。

问题是,研究人员能否比我们更快做出研究突破,而不仅是建造更大数据中心?硅谷有很多人认为,现在唯一重要的是规模,也有很多人认为我们会在推理方面取得突破,会找到更好利用数据的方法,使模型更加高效。

我认为这两种观点都有支持者,目前证据更倾向于支持规模定律,我希望看到更多证据表明其他突破也能推动进步,我希望看到尽可能多的进步。如果我们能同时拥有两者,那就比只有一个更好。

Harry Stebbings: 我们提到创业公司在计算成本下降时受益,他们是消费者。这是否会导致一些公司变得更糟糕,他们无法提高收费,却有更高成本,整合 AI 的成本很高?

David Cahn 马斯克在 Sequoia Base Camp 活动上说过一句话,这句话我记忆犹新:唯一重要的事情,就是做出有用的东西,其他商业问题都会自己解决。如果你做了有用的事情,人们通常会为之付费;如果你没有做有用的事情,人们就不会付费。

问题在于, Canva 与其他这些软件公司,能否通过 AI 使产品变得更有用?如果答案是肯定的,他们可能有定价权。如果你为最终用户带来价值,你就可能赚取利润。如果你只是为了告诉投资者,你有 AI 而注入 AI ,没有为消费者带来实际好处,你只是增加成本,而没有任何收益。如果没有对消费者的好处,他们不会支付更多费用。

Netflix 或者 Spotify 这些产品,给消费者带来巨大价值,价格不高。资本主义在这方面很神奇,商业中提供价值的负担是很高的,我们在 AI 领域没有强烈看到这一点。

Harry Stebbings: 我不确定是否同意如果你增加价值,你就可以收取更多费用。如果所有供应商的功能相当,逐渐商品化,比如 Canva Adobe Sketch 等,尽管它们增加更多价值,如果有大量其他供应商提供相同功能,定价权会消失,会陷入价格竞争局面。我认为我们已经在许多领域看到了这一点,你怎么看这个问题?我有错吗?

David Cahn 不,你说得对,这有其复杂性。关键在于,具有进入壁垒的行业有定价权,没有进入壁垒的行业没有定价权,我认为这将是按行业区分的。在一些行业中,商品化现象会出现,毛利率基本会降到 0%

在结构性低毛利率的行业中,提高毛利率非常困难。如果成本上升,你会稍微提高价格来弥补,但不会大幅提高价格。在有高进入壁垒的行业中,例如拥有数据壁垒的行业,如果我把所有数据放在你的平台上,我就不能轻易迁移,这些公司有定价权。如果在 AI 之前有定价权, AI 之后仍然会有定价权。如果在 AI 之前没有定价权, AI 之后也可能不会有。

Harry Stebbings: 回到计算问题,我们看到越来越多企业谈论垂直整合,比如苹果公开表示他们计划使用与实现自己的芯片,以摆脱对英伟达依赖。你认为这会成为一种趋势吗?

David Cahn 分两部分来说。某种意义上,我认为是的;另一种意义上,我认为不是。


说不是的原因是,我 6 年来一直有一个信念,它对我很有帮助,就是不要赌黄仁勋会输,,我认为很难与黄仁勋、英伟达对赌。

黄仁勋是我们这个时代的乔布斯,他是一个出色的 CEO ,我认为很难与出色的 CEO 、有远见的 CEO 对赌。

说是的原因是,这与数据中心建设与运行有关。在过去几个月与 1 年中,我改变了一个观点。

你听到马斯克经常谈论数据中心建设与垂直整合,我认为这是一个很聪明的做法,我认为模型层与数据中心之间的垂直整合很重要。

另一个进行垂直整合的公司是 Meta ,扎克伯格控制着自己的数据中心,也在构建模型。

我认为垂直整合的关键,在于你不能有一个单独的团队运行数据中心,与一个单独的团队构建模型。随着这些模型越来越大,你需要紧密结合这些东西。

马斯克与扎克伯格正在做这些,我认为微软、 OpenAI 、亚马逊、 Anthropic 将面临的一个大问题是如何进行垂直整合。

Anthropic OpenAI ,与控制数据中心的母公司是分开的。

AI 发展三大支柱

Harry Stebbings: 我不久前与 Scale Alex Wang 进行对话,他说,有三件事:算力、算法、数据。你同意他的观点吗?你认为哪一个是核心限制?

David Cahn 有趣的是,我曾经有点同意 Alex 观点,我觉得我思维模式已经改变了,我认为算力、模型、数据已经融合了。

我认为今天很难说任何一家大模型公司有数据优势。

算力只是你为之付费的商品,很难说任何公司有算力优势。

至于模型,他们都会说自己有一些独家技术,但如果你相信规模定律与苦涩教训(源自机器学习先驱 Rich Sutton 2019 年一篇经典文章,核心观点为 AI 如果想要长期获得提升,必须利用强大的算力),所谓的独家技术就没那么重要。

我提出我认为最重要的三件事:服务器、钢铁、能源。我对 AI 的工业性质更感兴趣,这是一场工业革命。服务器,包括英伟达、 AMD Broadcom 等公司,这是芯片创新。英伟达的毛利率很高,会有大量竞争,芯片战争才刚开始,这里有很多有趣的事情发生。

钢铁,我们之前提到过,很多建设正在进行,许多大受益者实际上是建筑与房地产公司。

电力,我们没怎么谈到,我觉得电力元素非常有趣。我们已经讨论了几年能源革命,可能 AI 这次真的会发生。

Harry Stebbings: 我们从你提到的芯片战争开始。你如何预期芯片战争发展?你说我们刚刚开始看到英伟达令人难以置信的产品路线图,可以详细谈谈你如何看到这一切的发展?

David Cahn 硅谷历史的一个部分是摩尔定律,芯片变得更便宜、更好。这是硅谷令人惊叹的地方之一,价格下降,产品变得更好。你看 B100 ,你将支付的价格与他们公开宣布的性能相比是惊人的。性价比继续改善,我看不出这种趋势会停止。

英伟达是家了不起的公司,他们有创新的记录,有新产品的记录。你可以相信黄仁勋在极力推动团队开发下一代芯片,我认为英伟达会继续给我们带来惊喜。

AMD Broadcom 等公司,他们看到这个巨大的市场。现在你看到很多初创公司也想竞争,这是巨大的市场。

Harry Stebbings: 关于钢铁,我很好奇,我们必须解决的核心考虑因素是什么?如果我们钢铁短缺,会发生什么?如果钢铁供过于求又会怎样?人们没有考虑到的关于钢铁的重要因素有哪些?

David Cahn 我用钢铁作为所有工业物资的代称,包括发电机、电池等必须制造的所有工业产品。

当我与大型云计算公司交谈时,他们告诉我:我们正在联系制造合作伙伴、工厂,比如钢铁厂、发电机厂等。

我们告诉他们,我们有一个巨大的订单即将到来,这是我们未来 5 年的计划。我们将订购大量你们产品,请增加你们的生产能力来支持我们。

他们得到的回应是:我们不相信你们。我们不想将产能翻倍,作为制造合作伙伴,比如说你是生产柴油发电机的公司,你必须建一个新工厂才能生产更多发电机。如果微软停止购买你的发电机,工厂就会闲置。你刚投入大量资金。

这里有一些非常有趣的供应链动态,你需要说服供应链增加产能,你告诉他们大量订单即将到来。

供应链的人不是 AI 专家,他们是擅长管理工厂的制造业人士。我认为供应链如何管理,也很有趣,大公司在这方面做得非常好。我认为这是他们被低估的另一个优势,说服供应链改变行为,是他们有很多经验的事情。

Harry Stebbings: 他们是怎么做到的?通过预付款?我只是想了解他们是如何做到的。

David Cahn 微软可以打电话给你说,我要买下你未来 5 年的所有产能。请建一个新工厂,如果你是工厂老板,你会这么做的,我认为这是科技巨头的另一个优势。

Harry Stebbings: 你一开始跟我说房地产开发商的事。我在想,为什么我们要投资 AI CRM ?房地产似乎是更好的生意。

David Cahn 我透露一下我的秘密,这正是我现在关注的领域。我在供应链领域花了很多时间,我认为那里有很多有趣的事情正在发生,我认为这个领域竞争还不激烈。

Harry Stebbings: 好的,请详细说说。你认为供应链中哪些部分,最有趣、竞争最不激烈?

David Cahn 房地产开发商就是一个例子。 KKR 拥有 CyrusOne ,黑石集团拥有 QTS ,这些都是非常好的投资。对这些公司来说,这些将是回报巨大的投资,这个领域还有其他很有趣的公司。如果你只看房地产,这是一个不错的生意,进入这个行业是不错的选择。

电力领域,是每个人都在谈论的。大约两三周前我去了西弗吉尼亚,参观了一家我之前投资的公司,他们正在建造长效电池。他们在过去 12 个月里,建造了价值 10 亿美元的工厂,正在发生巨大的工业转变。

我认为 12 个月后,你会看到各种图表显示正在建造比以往更多的工厂等,工业革命才刚刚开始。

Harry Stebbings: 你能详细解释一下工业革命刚开始,是什么意思吗?还有电力需求,我们有足够的电力供应来支持工业革命吗?我们刚才讨论的计算需求呢?

David Cahn 我们没有。这里有一个有趣的现象,拜登政府通过通胀削减法案,这是一个巨大的刺激法案,激励每个人建造太阳能发电厂、电池等。作为一个资本主义者,我认为一个很大的讽刺是,资本主义的力量,也就是 AI ,将比任何政治规定都更能推动能源革命。

Harry Stebbings: 太棒了。为什么会这样?是我们需要降低能源成本,来促进我们需要的 AI 发展?

David Cahn 没错。对电力的需求,超过我们现有电力供应。例如,几乎所有人都同意我们需要更多发电能力。如果你能建一个新的太阳能发电厂,你会这么做,经济上是合理的。你有买家,另一边有很大需求。这需要时间,但有很多成熟的公司在做这件事。

NEE 是美国最大公用事业公司之一,是一家非常棒的公司,市值超过 1,000 亿美元,硅谷大多数人都没听说过这家公司。这家公司一直在投资,过去 10 年一直如此。他们通过非管制业务进行投资,他们一直在投资电池、太阳能、新技术。

当我看清洁技术投资时,我经常看到他们在场。这对美国来说是非常积极的,美国有像 NEE 这样的优秀公司,他们做得非常出色,他们会继续创新,他们会看到另一边的需求,人们会针对这种需求进行建设。

Harry Stebbings: 你不认为我们正在进入能源危机吗?

David Cahn 我认为我们需要更多能源。 20 年前,每个人都在说太阳能会成为一件大事。现在太阳能是一件大事,这个预测已经实现,现在没人谈论它。

有趣的是,有时最大的变化是悄无声息地发生的。今天,美国有很大一部分发电能力,来自太阳能,我不认为会出现人们预期的那种大声疾呼的危机。我认为我们会缓慢朝着更多可再生能源、更多电网供电的方向发展。

David Cahn AI 发展预测

Harry Stebbings: 有两个核心问题,我真的想听听你的看法。

第一个问题是,我们之前提到扎克伯格的开源方法,相比之下,其他人采取更封闭的方法。你如何看待这对社会的影响,我们应该采用开放还是封闭模型?

Marc Andreessen 等人持完全相反的观点,认为一旦放出来就收不回去。美国 AI 数据服务公司 Scale AI 创始人 Alex Wang ,在节目中说这比核武器还危险。

你如何看待这个核心问题,这是否太危险而不能开放?

David Cahn 我认为这有点像 AGI 的争论,如果你认为 AGI 明天就会实现,你会非常害怕。如果你不这么认为,你就不会害怕,这决定了你是否相信封闭系统。

我有点质疑这个问题,我不太担心这些事情。我认为 AI 可能会改变我们生活,让它变得更好,它会提高生产力。

也许当你我 90 岁时, AGI 会实现,我不认为 AGI 会在明天实现,我觉得挺好的。我们有封闭源代码的选择,也有开源的选择,有两种选择很好,我绝对不想生活在一个只有一种选择的世界里。我很高兴我们两种都有,我不太担心这些事情。

Marc Andreessen 也谈到过这一点。我很喜欢 Marc Andreessen 说的很多东西,他说硅谷的人没有宗教信仰,他们担心 AGI

Harry Stebbings: 我昨天采访研究 AI






请到「今天看啥」查看全文