专栏名称: 投资银行在线
投资银行在线 Investment Bank Online,一个资本与项目对接的平台,一个互联网金融的探索者和实践者。
目录
相关文章推荐
曾星智中线投资  ·  去年8月有买入寒武纪的充分理由吗? ·  11 小时前  
曾星智中线投资  ·  去年8月有买入寒武纪的充分理由吗? ·  11 小时前  
IT桔子  ·  A股最年轻的上市公司需要 6 年才 IPO|看图 ·  11 小时前  
连州点点网  ·  重大利好!广东重磅发布→ ·  昨天  
连州点点网  ·  重大利好!广东重磅发布→ ·  昨天  
中科财经  ·  3月22日召开!欢迎参加2025中国科技投资 ... ·  2 天前  
51好读  ›  专栏  ›  投资银行在线

杨植麟深度对话,聚焦做好Kimi产品,Anthropic创始人Dario最新深度访谈

投资银行在线  · 公众号  · 科技投资  · 2024-07-16 11:52

正文


极客公园举办 AGI Playground 2024 大会上,极客公园创始人、总裁张鹏,与月之暗面创始人、 CEO 杨植麟深度对话。杨植麟分享,对 Kimi 产品发展看法、公司战略选择、产品目标、长文本处理重要性、多模态统一对通用智能影响等观点。杨植麟表示,很长一段时间内,月之暗面不会推出 Kimi 之外第二款产品,希望聚焦 Kimi 这个产品,做到极致。
Anthropic 创始人、 CEO Dario Amodei ,与挪威主权基金主席尼古拉 · 唐根,近期进行一场深度访谈。这次访谈内容丰富,涵盖 AI 最新进展、 Claude 模型特点、模型可解释性、 AI 安全性与道德问题、 AI 对社会与经济潜在影响等话题。

本期长期主义,选择杨植麟深度对话、 Dario Amodei 最新深度访谈, Founder Park Web3 天空之城发布,六合商业研选精校,分享给大家, Enjoy

正文:
全文 25,432
预计阅读 51 分钟


对话杨植麟:聚焦生产力,做好 Kimi 这个产品
时间: 2024 6 23

来源: Founder Park

字数: 8,484

复盘 Kimi :更聚焦,对抗组织的惯性

张鹏: 从你创业以来,我们 2023 年做过一次直播,到今天又过了大半年时间,你怎么评价 Kimi 发展,给团队、公司、产品打多少分?

杨植麟: 时间过得很快,我估计有个 60 分。

我们视角看,行业整体还是一个马拉松。技术发展可能会相对快一些,如果看整体技术普及,包括整个产品与商业化,我觉得需要从 10~20 年的维度看事情。

过去 1 年时间,我们做的一个事情是探索早期 PMF Product Market Fit ),在技术上迭代了一些模型进展,使得模型能够更好服务用户需求。

我觉得可能也还有很多挑战,这里面最关键的是,比如 Scaling Law 今天还是非常早期,可能还要看怎么能够 Scale 到下一代模型、下下代模型,通过模型在产品上能够形成更强 PMF ,真正能够在每个人工作与生活中有更高渗透。我觉得还是有非常多挑战,可能是一个更长期的地方。

张鹏: 相对讲,你入场比较晚,我们从外界感知到的是你提速很快、现在声势很好。你觉得有什么做得比较成功的地方?能到今天客观的效果,你认为哪件事的选择是比较对的?

杨植麟: 我觉得严格意义上讲,不能说是非常成功或者怎样,可能有一些小起步。

这里面我们持续关注的地方,同时现在也在持续优化的地方,还是希望真正从底层出发解决问题,真正关注第一性原理。

就像比如说 Personal Computer 行业基础假设是摩尔定律,我觉得 AI 行业基础假设是规模化定律 Scaling Law

如果我们从 10 年视角看问题,我觉得更多还是:怎么能够从技术与模型效果上持续优化,在过程中形成更强 PMF 。很多动作会从出发点开始,规划到底要做什么地方。

我们希望最大的投入,还有时间、精力应该是放在怎么能够迭代出更好模型,解锁更多场景,这可能是我们最关注的地方。

它可能意味着聚焦,在技术与产品上可能我们都希望更加聚焦,比如我们现在更多会聚焦面向知识工作者,比如学术科研人群、互联网从业者、内容创作者、金融分析师、法律等人群的生产力场景上,已经成为几千万知识工作者搜索资料、分析文件、创作内容的助手,生产力之外的场景,现在暂时不会做特别多,你如果什么地方都做了,可能最后很难做好。

张鹏: 这件事也是有 trade-off 的,要做一些取舍。

杨植麟: 我觉得创业公司还是要有比较明确重点,比如我们可能是针对生产力场景做非常极致优化,很多时候产品看起来都是一个框,好像没发生什么变化,背后很多体验已经优化很多,现在还有很多很多的空间。

取舍过程中,很多时候意味着需要砍掉一些地方,不是所有地方都要做,我觉得组织的惯性,还是想做越来越多的地方,我们可能要去对抗地心引力,希望做更少的地方,把它做到极致。

包括技术上也是, AI 空间很大,智能是非常异质性 heterogeneous ,非常异构的地方。

一个会计师的智能,跟一个画家的智能、数学家的智能,完全不一样。这里面,我们会根据核心用户群体看,到底什么样的智能可能是现在重点,它对应的基础能力可能是什么,可能更聚焦去做事。

张鹏: 如果把一件事能做到今天效果,可能比较重要的原因是你比较聚焦,选择生产力维度。在 trade-off 过程中,比如现在陪聊的产品方向你也看过,甚至团队有讨论过,你最终选择不做它,背后逻辑是什么?

杨植麟: 我们讨论过问题,最主要可能有几点,一个是考虑到底我们最后想做的是什么?想做的是通用智能。

最终闲聊的场景与生产力场景,我觉得大概率会结合在同一个产品里,只是在路径选择上会不一样。

我们先做生产力原因是,生产力对智商的提升更快,今天如果去做一个类似 Character.ai 产品,绝大部分精力不是在优化智商,优化智商对提升产品留存可能帮助不大。

如果做生产力,优化智商后,你的留存能看到显著提升。

公司 mission 跟产品路线图 roadmap 之间,应该能够更紧密结合起来,这是很重要的一个原因。

可能也有其他原因,比如说我们观察了美国市场不同选择、发展情况,美国市场整体比中国市场领先 1~2 年,我们可以看不同公司发展情况。把生产力做特别好的公司,今天不管是业务体量,还是融资与人才吸引力说,它都是更好。

还有一个很重要原因,我觉得娱乐场景今天的产品基线非常高。过去 10 年,移动互联网发展,诞生了一堆非常好的娱乐体验产品,在生产力维度的基础体验或者价值,还有非常大可以挖掘空间。

即使今天最好的生产力产品,我觉得它还没有非常深入渗透到真正工作流程里,这是 AI 能带来的巨大新变量,这可能是为什么我们会做这样选择的重要原因。

Kimi 目标是你的终极伙伴

张鹏: 怎么定义 Kimi 产品?它在解决什么问题?长期看,是一个 AI 工作台还是什么?

杨植麟: 我觉得可能是分短期与长期看,短期希望在生产力场景能够提供越来越多智能。大家今天一些最主要的任务,比如更好信息获取、信息分析、创作等,我们希望它能发挥更大价值。

最长期、最理想情况,本质上是在讨论 AI 产品终极形态或者终极定义是什么样。大家有讨论,我觉得现在可能有两种不同观点。

一种是,它是世界上另一个我,它拥有你所有输入,想法基本跟你一样,等于是复刻一个自己,一个自己可以在数字世界,甚至物理世界做很多事情。

一种定义是,它可能是你的一个伙伴,一个长期、甚至接近终生的伙伴,伙伴也能帮你做很多事情,它可能会跟你不一样,会给你提出来新视角,不是完全复刻你,而是可能有点像。

张鹏: 它理解我,而不是复刻我。

杨植麟: 非常理解你,我现在觉得可能第二种概率更大,这可能是我们想做的地方,我觉得它会有几个比较重要特征。

第一个,我觉得它还是先得有用,你能做越来越复杂事情。我觉得今天能做的事情,还不够多,这也是为什么我们现在最聚焦的还是进一步提升模型能力。只有通过提升模型能力,才能让它做更多事情。

把它类比为一个人,还缺少非常多的维度。它可能没有记忆,没有办法做长期规划。在我想象中,如果产品做得好,它不是只能完成 10 秒、 20 秒就能完成的任务,而是能够让它定一个季度 OKR ,它可以自己完成。

第二个重要特征,我觉得还是 AI 与人之间能够建立非常长期的信任与 connection 。前提还是第一步,它得足够有用。如果 AI 每天给你幻觉 hallucination 、给你很多错误结论,信任很难建立。我觉得只有在越来越复杂、长窗口的任务里,提供真实性与准确性,才能够建立信任。我们会从这些方面考虑产品。

张鹏: 我们今天看到的可能只是一个产品初级形态。这也解释了我们为什么可以看到产品里有不同新功能,本质上你在努力赢得在用户身边更有用的位置。这种位置未来会是从一部分能干的事,逐渐扩展到越来越多,这可能是个路径。

杨植麟: 我觉得这里面有一个重要标志,如果有一天你发现在你工作里 AI 做的事情比你多, AI 占比超过 50% ,可能会是非常重要的里程碑。

可能下一个里程碑是机器人数量超过人类,那是在物理世界,我觉得数字世界会更早实现。

张鹏: 我很好奇一个问题,月之暗面 Kimi 角度看,今天有一个很成功的产品大家都在用,未来可能也会有新功能解决用户更具象问题。你会更倾向于都在 Kimi 平台解决,还是会有机会长出其他更专有 APP

杨植麟: 我们还是会很聚焦,只做 Kimi 一个 APP 。有一个很重要的点,未来的智能产品,它应该满足普世需求。娱乐的需求,或者生产力的需求,甚至这两个地方可能也没有特别明确边界。我觉得他们应该是在同一个产品里的,只是路径选择上会有区别。

这也是我认为通用智能最有意思的地方,它不是只能做一件事。只是说在路径选择上,没有办法在一开始做所有事情,一开始还是会有重点场景、核心用户群体,逐渐泛化开。我们还是希望聚焦做一个产品,把产品做到极致。

张鹏: Kimi 要能达到你说的终极目标,一个理解用户的伙伴,首先起点是从先帮用户做好一两件事,逐渐能做越来越多的事,伙伴的关系与信任就建立了,这是一个前进的世界观与路线图。

杨植麟: 我觉得这中间很重要的一个标志, AI 可以从单个、具体任务,发展成能完成一个人要花几周才能做好的任务,全方位的 Super Intelligence

现在的 AI 可以实现一部分 Super Intelligence ,比如阅读长文本。人没有办法一下读完几百万字文章、直接找到问题答案,很多问题没法通过查找得到答案。

这是我们一开始踩过的坑,找了一堆人标注长文本数据,认为标注完,人就学会。你发现人根本标注不了,或者效率非常低。

今天 AI 有一部分能力比人更好,我们需要的是让范围逐渐变大。

长文本本质是长推理

张鹏: 长文本是 Kimi 一开始让大家印象深刻的一个点,甚至在那时月之暗面可能比较非共识的提出来这件事很重要。我们也看到很多模型支持的文本长度在变长,这件事未来是不是已经逐渐形成共识?长文本对于解决你说的终极问题,是不是最重要的路径?

杨植麟: 今天有很多人在做长文本,如果说是完全的共识,我不是非常确定。也有不同观点,比如说认为短文本场景下也有很多可以挖掘的地方,可能不一定要非常着急做长文本。

我觉得是正常的,每一个公司都有自己判断。对我们说,我们比较早认为长文本可能是非常关键的地方。

这里面有几个方面:

第一方面,如果我们想让 AI 从完成 1~2 分钟的任务,变成完成长周期的任务,必然要在一个很长的 context 里,才有可能真正把 AI 进一步往下推进。

这是必要不充分条件,具备很长的 context 能力后,可能还需要很强推理能力,之后你可以有更长 context ,我觉得它有点像螺旋迭代过程。

可能更准确说法叫长推理,你能够在一个很长的窗口下面,做很好的推理,我觉得是最终能产生很大价值。

张鹏: 它最终是跟用户在做数据的输入、指令的输入、最终交付服务的转换比的计算,转换比越高,带来的价值越高。

杨植麟: 很有意思。比如,即使只看长文本技术,它的落地过程,也是一个比例逐渐提升的过程。

最早期时,用长上下文做一些阅读类任务。阅读类任务是最早落地,它是一个从很多信息变成很少信息的过程,相对容易一些。

比如让 AI 10 篇文章,形成总结。难度小于我只给 AI 一个很简单的指令,要一口气做一个月,最好还要满足用户需求。

这是个比例问题,输入与输出的比例,它可能是更本质的地方。

张鹏: 你觉得未来长文本的成本是否会快速下降?现在真的把 200 token 扔进去跑一圈,成本高,这又跟长文本应用在哪些场景、能否高价值解决问题有关,这两个问题是绑定在一起的,你怎么看?

杨植麟: 我觉得成本持续下降是必然趋势。最近我们有一些新技术,一方面是一些工程极致优化,比如上下文缓存 context caching 技术;另一方面,我们在架构上做了很多优化,这能够让成本在现在基础上,下降甚至不止一个数量级。

如果是 200 万字的窗口、能够让大部分人普惠用起来,我觉得这是一个大概率能在 2024 年实现的目标。

张鹏: 2024 年就可以做到?

杨植麟: 这是我们目标,接下来很长一段时间内,成本会持续降低、速度会比短文本 short context 更快。

今天还有很多地方没有被挖掘,比如说,如果考虑一个人处理一个很长的记忆、或长周期的任务,他不需要记住所有地方,它是一个动态计算过程,你可以选择哪些地方要记下来、哪些要扔掉,这里面有非常大优化空间。

今天 AI 效率远远高于人类,它优化空间很大,整体成本降低的速度,会比短文本更快。

张鹏: 我们站在这个角度想象一下,这种变量放在应用场景上,大家会怎么用这样的一个能力?比如说之前我们把一本书扔进去,让它做总结,这非常直接,按照你的推理,接下来还会有哪些用户场景会更可用?

杨植麟: 它是一个输入输出比例调整的过程,一开始阅读可能是目前最刚需的场景之一。之后它可能会变成,模型能够在很长窗口内做推理与规划、执行多步任务的能力。

比如说,你今天想调研某个话题,或者说甚至给了 AI 一个明确目标,它可以去执行多步规划、调用不同工具、甚至有中间思考分析过程,我觉得它会逐渐往这个方向演进。

对于多模态说也很重要,比如你今天想生成一个长时间的连续视频,背后可能需要很好的上下文技术。

张鹏: 我现在理解你为什么说,长文本在接下来可能更接近长推理。它本质不是传统意义上我给它多少文本,它处理多少,而是它有多长的推理能力、能在多少信息下进行进一步的推理与创造,这变得更重要。

杨植麟: 如果只有长的文本,脑子不够用、推理能力不够,没有太大价值,它是要两个同时都做好。

张鹏: 它会从一个产品的 feature ,转化为一种产品的后台能力,能力会产生更强大的 feature ,这可能是它的行进路线?

杨植麟: 这也是跟用户一起探索的过程。比如说今天我们上下文中很多场景,是 Day One 的时候没预想到的。

即使是阅读,我们之前没想到它可以被用来快速入门一个新领域,甚至在不同行业里、它可能都有不同用法。

比如有用户可能会用功能做一些分析,这些分析如果你不给大家提供上下文,分析效果可能没那么好。当你给它提供之后,它的分析可能会更有结构化,更像麦肯锡分析法。我觉得这是一个跟用户共创的过程,你会不断发现新的应用场景。

张鹏: 这是智能带来的增益价值。

多模态统一才是通用智能

张鹏: 最近业界大家看到的技术变化,比如说我们今天看到 Sora GPT-4o ,你怎么看待 Sora 视频生成能力?会是未来 Kimi 特别看重的能力吗?

杨植麟: 很重要。对通用智能说,它是多模态的,你很难想象一个单模态的通用智能。我觉得最终不同模态之间,一定会是统一的模型。现在我们可以看到技术的发展,可能有两个不同的维度。

第一个维度是智能不断上升。比如说我们看到 Sora GPT-4o ,它们智能提升有一些,没有非常显著。如果让它们做智商测试或者一些更复杂任务,它们可能还是做不了。这个方向需要持续投入,我认为这是最重要的方向。

另外一个维度是不断扩展模态。比如现在有视频模态、语音模态,未来可能会扩充到感知数据、动作数据、甚至机器人的模态。这背后的价值在于,模型能够完成更多场景、提供更丰富交互方式,能够帮助产品跨越鸿沟 cross the chasm ,让技术真正变得非常易用、被越来越多人使用。

这是两个不同的维度,最终它们会统一起来。

张鹏: GPT-4o 多模态能力,一定是所有做模型的公司都在研究的能力。但像 Sora 这样视频生成技术,它是在智能成长这条线上吗?还是更多是在给用户交付服务?这条线到底是因为什么而重要?

杨植麟: 这个问题在纯语言模型的时代,就已经被讨论过了。

我记得在 2019~2020 年,有一个重要的讨论话题,语言模型到底应该侧重理解、还是生成?一开始有像 BERT 这样的模型,后来有 GPT 系列,可能 GPT 生成能力更好, BERT 在相同算力下的效率永远更高、也就是说单位算力下 Benchmark 的提升更大。

那段时间所有人都关注 BERT ,觉得能做理解就行,工业界大部分的价值都在于理解。这里面可能忽略很重要的问题,如果你想做非常好的理解,你需要做非常好的生成,这两个问题最终是一个问题。

对视频说也是一样,我们今天想做很好的视频生成,一方面是视频生成有很高价值,尤其是对内容创作者与用户。我觉得更重要的还不是这些,更重要的是如果能把生成的目标函数优化得非常好,它最终一定能把理解做得更好。

我觉得文本已经是很大的 lesson ,过去几年,一开始大家有很多争论,后来基本形成共识,理解与生成分不开。你很难单独训练一个理解的模型,最后这两个可能是一个模型。

张鹏: 最近我们经常看到学术界有一些探讨,觉得 Scaling Law Transformer 这件事可能通向未来,但有一些学术界大神、科学家们会说这件事他们没有那么大信心,他们认为还要有新的变化。

这件事让我们还是会有一点疑惑,你作为曾经的年轻学者,今天的创业者,作为学者的世界观与创业的世界观有所不同,如何和谐的理解这两件事?你会怎么看学界一些观点与判断?

杨植麟: 我觉得是这样,学术界解决的问题是,寻找正确的第一性原理。工业界是基于第一性原理,做最好的执行。执行的意思不是说完全执行,它可能也需要很多创新,在不同的层级上创新。

第一性原理是在最底层创新,学术界的讨论是,现在 Scaling Law 对不对? Next Token Prediction 对不对?我觉得这些问题都很有意义,应该被讨论,应该被挑战,应该有新的观点出来,每个人有不同想法。

神经网络可能在 30~40 年前、甚至 20~30 年前的时候,也没有太多人关注,大家觉得不是一个好的技术路线。

我觉得这是学术界最大价值,工业界的价值或者说要做的事情是,在一个技术路线或第一性原理基础上,解决里面最重要的问题。

比如 Scaling Law 是第一性原理,但在过程中它还有很多问题没有解决,比如怎么生成数据,怎么做多模态模型?怎么做数据飞轮?这些问题都需要解决,他永远不是发明一个新的第一性原理,他们是在不同层级上工作、创新。

这是我的理解,学术界可能需要更多辩论,需要有人提出很多新挑战、想法。工业界怎么能更快、更好解决,在第一性原理基础上,第二层面很多大的技术挑战。

我觉得现在整体冲突没那么大,比如杨立昆一直在讲的世界模型,现在大语言模型也是世界模型一个特例,我觉得没有大的冲突。

对我们讲, Scaling Law 框架下探索智能的极限。随着人类科技发展,总是会有新的技术路线被提出来,我觉得更多应该是纯学术研究的 mission ,是不同层级。

创业公司,动态反应比长期预测更重要

张鹏: 2023 年我们聊的时候你提到,大模型时代的创业公司,不光是技术产品创新,可能组织也需要创新,今天做产品,相比过去系统变量增加很多,有模型、数据、用户等。你觉得这 1 年,组织创新上,有什么 grounding 的结果?

杨植麟: 我觉得这还是一个持续的过程,组织它需要生长的时间。

很多时候,我们看到一些美国公司比我们跑得更快,一方面可能在于整体 AI 能力还是更好,也得益于他们花了非常多时间搭建组织,不光是招最好的人,可能形成一套机制,让这些人都能在范式下创新。

中国公司,很多时候还是起步晚了一点。这里面会有两种不同公司,一种是原来做别的业务,现在转而做新业务,新业务需要的组织方式可能不一样。还有另一种,从 0 1 ,从 0 1 可能组织债会少一点,也需要探索好的方式。

整体我觉得还是需要一些时间,我们现在可能有一些进展,还有非常大的空间。

张鹏: 这是一个确定重要的事,它需要更长时间研究。

杨植麟: 我们考虑技术事情,本质上还是看技术是怎么产生出来。它是靠人产生出来,人搭配生产材料。

张鹏: 人是技术的第一性,或者说人的组织是技术背后的第一性。

杨植麟: 我觉得是这样。我们也会很关注,怎么能够招聘最好的人才?特别是技术方面的人才,这些都是做好技术的一个基础。

张鹏: 你现在花在招聘上的精力,是不是占比较多?

杨植麟: 整体占比会比较高,还是我们核心的发展燃料。

张鹏: 招什么样的人,是你自己花时间最多的?

杨植麟: 现在主要关注的还是技术方面人才,这是跟公司的优先级相关,对我们说最重要的还是把技术做好,只有技术做好,才能解锁更多产品场景,有更好留存,更好商业化,所有基础都是技术做得更好。我们今天在这方面,已经有一些还不错的人,我们还要持续去增强,持续吸引更多更好的人加入我们。

张鹏: 过去大半年,或者说创业 1 年多以来,有什么你觉得自己预料对的地方,与预料错的地方?

杨植麟: 整体说,预测是很难的事情,更重要的反而是快速调整。 AI 发展很快,很多时候都很难预测。

比如 2025 年模型能做到什么样?问题非常难回答,你可能有一些认知、判断,最重要的还是根据新变量做反应,新变量可能来自市场,可能来自很多实验之后新的迭代,可能来自用户反馈。总之根据新变量,非常快速做反应,可能是最重要的。

如果一定要说预测,我觉得有几个地方在趋势上,可能跟我们一开始想的差不多。比如上下文长度一直在提升,包括视频生成能力、能够有分钟级别的视频生成,趋势可能跟我们想的差不多。

有一些时间点上,判断不一定准确,比如像 Sora 的推出,比我们想象中更早。也可能并没有更早,它实际要达到 Product Market Fit 可能还需要一段时间。

张鹏: 我们现在还没用上。

杨植麟: 是,还没用到。它 somehow 真要达到 PMF 可能还有一定的时间。现在这里面更多的智能提升,可能是来自于比如 GPT-4 这一代模型,做了更好的 Post Training ,像 GPT-5 ,看起来时间表要比原来预测的更晚。在时间点上的准确预测,我觉得是很难。

张鹏: 我听你的意思,不太在意远期预测,你认为与其做远期预测,不如变成一个更连续、快速、有效的推理,每一个变量出来以后,赶紧下一步动作,不是更远的那个。

杨植麟: 动态快速的反应,也是我们作为一个小的创业公司,能做得更好的地方。

张鹏: 不是在遥远的地方,下一个大注。

杨植麟: 方向上要有一些判断,做到长期的确定性,很坚定的往一个目标走,它关系到你的执行能不能做好。比如几个月级别的维度计划,我觉得可以允许有一些灵活调整,这样你犯错的概率会更小。

是登山,还是航海?

张鹏: 希望用你直觉回答,先不要直接 reasoning 这个地方,先用 system one ,再用 system two 。你觉得你今天的工作,你的创业状态是更像在爬山,还是更像在航海?

杨植麟: 可能更像爬山。

张鹏: 为什么更像在爬山?

杨植麟: 我第一反应是爬山,是我们之前一直觉得是要爬楼梯,不是看风景。这是我们内部一直在说的事情,这是一个第一反应,我觉得现在用 system two 想一下,我觉得,我也没有真正航过海,我想象中的航海,是你在一个海洋上,即使走了几百公里,你看到的地方基本是一样的。就你的目标还是很明确,但你看到的 ……

张鹏: 进展不明确。

杨植麟: 在你没有很好的定位技术的情况下。

张鹏: 参照物不明确。

杨植麟: 不是明确能看到不一样的地方。你看到周围的地方,没有发生任何变化,那时你的孤独感会更强。

登山,每一步都能感受到自己在提升。你能感受到模型能力好像比几个月前更好一点,你的留存比几个月前好像高一点。

你的视野不太一样,你去度量你跟目标之间距离的时候,会有更好感受,我觉得它是一个进度更明确的地方,这是一方面。

另一方面,我觉得 AI 的发展,是渐进式的过程,一步一个台阶。你可能从 10 24 次方到 25 26 27 。甚至假设大家都是 10 25 次方,你的训练效率可以持续提升,你可以让每一分算力产出的智能更高。有点像爬山的时候,又多迈了几个台阶,我觉得整体会更像登山。


Anthropic 创始人 Dario Amodei 最新投资人深度访谈
时间: 2024 6 26

来源: Web3 天空之城

字数: 16,948

尼古拉 · 唐根: 今天我们非常激动邀请到 Anthropic CEO 、联合创始人 Dario Amodei Dario AI 领域超级明星,他与团队一起开发了 Claude 语言模型,这是目前最好的语言模型之一,得到亚马逊与谷歌支持。你是 AI 安全与道德方面领军人物,甚至中断假期来到这里与我们交谈,非常感谢你的到来。

Dario Amodei 感谢邀请。

尼古拉 · 唐根: AI 的最新突破是什么?

Dario Amodei 我可以谈几件事。

首先,我认为 AI 的扩展趋势仍在继续,我们将在 2025 年看到更大、更强大的模型,它们能够完成更大任务。

当这个播客播出时, Anthropic 将会推出新模型,它可能是世界上最智能、最强大的模型。

令我特别兴奋的一个领域是,我们正在同时开发模型的可解释性,即洞察我们的 AI 模型内部,并了解它们做出决策原因的能力。

过去几年,该领域主要是一个研究领域,现在才刚开始有实际应用,这是我非常兴奋的一个领域。

尼古拉 · 唐根: 为什么它如此重要?

Dario Amodei 如果你看看今天 AI 模型在做什么,你往往不会理解为什么 AI 模型会这样做,我刚在午餐时与某人聊天。

假设你想考虑你的行业,假设你想要一个 AI 模型在某些数据上进行训练,以便能够预测一组特定的财务数据会发生什么。

训练模型时,你会遇到一个问题,如果你用过去的数据进行训练,模型可能已经记住了它,它是经过训练的,它知道会发生什么。在这种情况下,它知道未来,可解释性可能让你分辨出区别。

模型是在推断问题的答案,还是在记住问题的答案?同样,如果一个模型的行为方式,比如说,表现出对某个特定群体的偏见或似乎表现出偏见,我们可以看看模型的推理?它是由偏见驱动的吗?还有许多法律要求,在欧盟,有一个正确的解释。

可解释性,能够看到模型内部,可以帮助我们理解模型为什么会做与说它们所做的事情,甚至可以干预它们,并改变它们所做的事情与所说。

尼古拉 · 唐根: 不久前,你说我们仍然不知道先进的 AI 模型如何工作,这是否意味着这将解决问题?

Dario Amodei 我不会说解决,我会说我们才刚开始。也许我们现在了解它们工作方式的 3% ,我们处于可以查看模型内部的水平,我们可以在其中找到与非常复杂的概念相对应的特征,例如一个特征可能代表对冲或犹豫的概念、特定的音乐流派、角色可能处于特定类型的隐喻情况,或者,对各种群体的偏见。

我们拥有所有这些特征,我们认为我们只发现了其中一小部分。我们仍然不明白的是,我们不明白所有这些事物如何相互作用,产生我们每天从模型中看到的行为。

这有点像大脑,我们可以做脑部扫描,可以对人脑进行一些研究,我们没有它的规格表。我们不能说,为什么那个人做了他们所做的事情。

尼古拉 · 唐根: 我们能完全理解它们的工作原理吗?

Dario Amodei 我不知道,直到最后一个细节,我认为进展正在迅速发生,我对获得突破持乐观态度。

尼古拉 · 唐根: 进展是否比新模型的复杂性更快?

Dario Amodei 这是我们正在努力解决的问题,我们在语言模型的可解释性上投入大量资源,试图跟上模型复杂性增加的速度,我认为这是该领域最大的挑战之一。这个领域发展如此之快,包括我们自己的努力,我们希望确保我们的理解与我们制作强大模型的能力保持同步。

尼古拉 · 唐根: 你的模型有什么好处?

Dario Amodei 这是 Claude 模型。

为了提供一些背景信息,我们最近发布了一组 Claude 三世模型,它们被称为 Opus Sonnet Haiku 。它们在功率与智能之间、以及速度与低成本之间,进行了不同权衡,同时仍然保持智能。

Opus 发布时,它是世界上最好的全能模型。我认为一个特别让它变得好的原因,是我们在它角色中投入大量工程设计,我们最近发布了一篇关于我们如何设计 Claude 角色的文章。

人们普遍发现 Claude 模型更温暖、更人性化,他们更喜欢与它们互动。

其他一些模型听起来更机械化,更缺乏灵感。

我们将继续快速创新,正如我所说,到这个播客播出时,我们可能至少会有一部分新一代模型问世。

尼古拉 · 唐根: 告诉我关于新模型的情况。

Dario Amodei 我不能说太多,如果我不得不说一点,我会说我们正在推动边界。

目前,速度与模型的低成本与质量之间存在权衡。你可以把它想象成一条权衡曲线,一个边界,将会有新一代模型将边界向外推进。

到这个播客播出时,你会看到,我们会给它起个名字,至少对其中一些模型。我们会发现,你需要最强大的模型才能完成的事情,只需要一些中端或低端模型就能完成,这些模型比上一代更快、更便宜、甚至更强大。

尼古拉 · 唐根: 这里惊喜因素是什么?当我得到模型时,它会对我做什么?

Dario Amodei 你会看到更擅长代码、数学、推理的模型,我最喜欢的一个是生物学与医学,这是我最期待的新模型应用集之一。

我们今天拥有的模型,在很多方面就像早期本科生或实习生一样。我认为我们开始将界限推向高级本科生甚至研究生水平的知识。

当我们考虑将模型用于药物开发,或者在你自己行业中,将模型用于考虑投资、甚至交易时,我认为这些模型在这些任务上会变得更加复杂。

我们希望每隔几个月,就能发布一个新模型,将这些界限进一步推向更高层次。

尼古拉 · 唐根: 最近发展最快的领域之一,是将 AI 融入我们所做的一切。

Dario Amodei 是的。

尼古拉 · 唐根: 苹果与 OpenAI 最近发布了声明,你怎么看待问题?

Dario Amodei Anthropic 认为自己更多是为企业提供服务,不是为消费者提供服务,我们正在考虑如何将 AI 融入工作环境。

如果你考虑当今的模型与聊天机器人,这有点像在企业环境中使用它们。这就像在街上随便找一个非常聪明,但对你公司一无所知的人,把他们带进来,并向他们征求建议。

我真正想要的是更像 AI 模型的人,更像经过多年训练、并了解你公司知识的人。

我们正在致力将我们 AI 模型连接到知识数据库,让它们现场工作,使用企业内部工具,真正与企业整合,就像员工虚拟助手一样,这是我所考虑的一种真正推动整合的方式。

尼古拉 · 唐根: 你对苹果智能有什么看法?

Dario Amodei 苹果正在使用一些芯片上的模型与一些外部调用。我不能说太多,他们设置的方式,允许他们调用几个不同模型。正如苹果自己所说,我们完全期待他们会使用一系列模型。

尼古拉 · 唐根: 你认为他们会使用 Anthropic 吗?

Dario Amodei 我无法对此发表评论,但这是有道理的。

尼古拉 · 唐根: 如果你看看 Anthropic 长期目标,是什么?

Dario Amodei 我们只有 3 岁半,是迄今为止该领域能够在前沿领域建立模型的最新参与者。

我们是一家公益公司,我认为我们长期目标是确保所有这一切顺利进行,这显然是通过公司来实现的。如果你考虑我们的长期战略,我们真正想要做的是创造所谓的竞相向上的现象。

竞相向下,是众所周知的事情,市场竞争非常激烈,每个人都在争相偷工减料。我们认为有一种方法,可以产生相反效果,如果你能够制定更高标准,以更符合道德方式进行创新,其他人也会效仿。

他们要么受到启发,要么被自己员工或公众情绪所胁迫,或者最终法律会朝这个方向发展。我们希望提供一个如何正确使用 AI 的典范,带领整个行业与我们一起前进。

这是我们可解释性工作、安全工作、负责任扩展的思考背后的大量工作。我们有一种称为负责任扩展政策的地方,我认为我们总体目标是尝试帮助整个行业变得更好。

尼古拉 · 唐根: 你有点把自己标榜为好人?

Dario Amodei 我不会说任何夸张,更像是,我更多考虑激励与结构,而不是好人与坏人。我想帮助改变激励机制,这样每个人都可以成为好人。

尼古拉 · 唐根: 你认为我们会关心我们与谁、哪个模型互动吗?或者我们只会有一个代理来选择最适合目的的模型?这有点像比尔盖茨在播客上说。

Dario Amodei 我认为真的取决于环境。关于这一点,我有几点看法。

首先,我认为我们正日益朝着模型擅长不同事物的方向发展。

例如,我刚才提到 Claude 的性格, Claude 更热情友好,这对许多应用程序与用例说是非常理想的。

对于其他应用程序与用例,关注不同事物的模型可能会有所帮助。有些人正在朝代理方向发展,有些人在开发代码良好的模型。

例如, Claude 另一个优点是创意写作。我认为我们将拥有一个生态系统,人们会根据不同目的使用不同模型。

尼古拉 · 唐根: 实践中,这是否意味着你有某种地方在为你选择模型?

Dario Amodei 我认为在某些消费者环境中,情况会是这样。其他情况下,有人会说,我正在做的工作或我是那种人,我想一直使用特定的模型。

尼古拉 · 唐根: 什么造就温暖的模型?你如何才能让模型更友好?是更幽默,还是更有礼貌?在中间放一些红心吗?

Dario Amodei 我们试图避免使用太多表情符号,它很烦人。

如果你在 X/ 推特上看到人们与 Claude 互动时的一些评论,我不知道如何描述它,听起来更像人类。

我认为很多这些机器人都有某些抽搐,模型会有某些短语,比如我很抱歉,但作为一个 AI 语言模型,我不能做 X Y Z ,这有点像一个常用短语。我们帮助模型更多改变他们思维,听起来更像人类,诸如此类。

尼古拉 · 唐根: 当你推出新模型时,你会对它的准确性有一个相当好的预测,它是参数数量的函数等。距离 AI 还有多远?

Dario Amodei 我说过几次,早在 10 年前,当所有这些都还是科幻小说时,我经常谈论 AI

我现在有了不同的观点,我不认为它是某个时间点,我只是认为我们处于平滑的指数上。随着时间推移,模型会越来越好。没有一个点会让人觉得,模型以前不是一般的智能,而现在却是智能的。

我只是认为,就像一个学习与成长的人类孩子一样,他们会变得越来越好,越来越聪明,知识越来越丰富,我不认为会有任何一个值得注意的点。

我认为有一种现象正在发生,随着时间推移,这些模型会变得越来越好,甚至比最好的人类还要好。我认为,如果我们继续扩大规模,增加模型资金,比如说, 100 亿美元。

尼古拉 · 唐根: 现在一个模型的成本是多少, 1 亿美元?

Dario Amodei 现在正在训练的模型的成本超过 10 亿美元。如果我们达到 100 亿美元或 1,000 亿美元,我认为将在 2025 年、 2026 年或 2027 年实现,算法改进与芯片改进将继续快速发展,我认为到那时,我们很有可能能够获得在大多数事情上都比大多数人更好的模型。

尼古拉 · 唐根: 你认为 100 亿美元级别的模型,会在 2025 年出现?

Dario Amodei 我认为 100 亿美元量级模型的训练,可能会在 2025 年某个时候开始,参与这场竞争的人并不多。

我认为会有一个充满活力的下游生态系统,也会有一个小型模型的生态系统。我们已经筹集了超过 80 亿美元,我们一直对达到下一个规模水平感兴趣,这也与芯片的功能有关。

尼古拉 · 唐根: 我们刚了解到, NVIDIA 现在将发布间隔时间缩短一半,从过去每隔 1 年发布一次,变为现在每年发布一次,这意味着什么?

Dario Amodei 我认为这是认识到芯片将变得非常重要的自然结果,也面临竞争。谷歌与亚马逊都在制造自己芯片, Anthropic 正在与这两家公司合作使用这些芯片。芯片行业竞争非常激烈,有一些非常强大的产品。

尼古拉 · 唐根: 芯片开发方面,谷歌与亚马逊远远落后。

Dario Amodei 现在有多家公司提供的强大产品对我们有用,将以不同方式对我们有用。这不再只是关于 NVIDIA 的事,你看他们的股票价值与股价,这也是他们与行业的一个指标。

尼古拉 · 唐根: 你提到你更偏向企业方面,不一定偏向消费者方面。最近,关于手机芯片的讨论越来越多,我们谈论 AI 、个人电脑等,你怎么看?

Dario Amodei 我认为这将是一个重要的发展。

如果我们回到我刚才提到的曲线,强大、智能、相对昂贵与缓慢的模型,与超级便宜、超级快速、非常智能的模型之间的权衡曲线。随着这条曲线向外移动,我们将拥有非常快速与便宜的模型,它们比当今最好的模型更智能,尽管当时最好的模型会比它们更智能。

我认为我们将能够将这些模型,放在手机与移动芯片上,它们将通过一些门槛,在那里你可以完成今天需要调用云或服务器的事情,我对它的含义感到非常兴奋,我更兴奋于推动事物发展的边界。随着这条曲线向外移动,暗示这两件事都会发生。

尼古拉 · 唐根: 我们从法国竞争对手 Mistral 那里听说,他们已经开发出一些非常高效的低成本或更低成本的模型,你如何看待这一点?

Dario Amodei 我无法评论其他公司情况,我认为我们看到曲线的普遍变化,我们看到的是高效、低成本的模式。

我认为这并不是事情趋于平稳,成本正在下降,而是曲线在变化。我们可以用更少的资源做更多事情,我们也可以用更多资源做更多事情,我认为这两种趋势是共存的。

尼古拉 · 唐根: 我稍微改变一下策略,谈谈你的背景。你从物理学开始,是吗?

Dario Amodei 我本科学的是物理学,然后读了神经科学研究生。

尼古拉 · 唐根: 你为什么最终进入 AI 领域?

Dario Amodei 当我完成物理学学位时,我想做一些对人类产生影响的事情。我觉得,这其中一个重要组成部分是理解智力,这是塑造我们世界的因素之一,那是在 2000 年代中期。

那时候我对 AI 并不特别感兴趣,我觉得当时研究智能的最好方法是研究人脑。我读了研究生,研究神经科学与计算神经科学,利用了我一些物理学背景,研究了神经元的集体特性。

到了研究生毕业时,我做了一个短期博士后, AI 才真正开始发挥作用。我们真的看到深度学习革命,我当时看到 Ilya Sutskever 的工作,我决定进入 AI 领域。我在不同的地方工作过,包括百度、谷歌、 OpenAI ,我在 OpenAI 工作了 5 年。

尼古拉 · 唐根: 你在 ChatGPT 2 3 开发中,发挥重要作用,你为什么离开?

Dario Amodei 2020 年底,我们已经达到某种程度。我们在这些领域从事这些项目的人,对如何做事有自己愿景。我们有这样一幅图景,一是真正相信扩展假设,二是安全性与可解释性的重要性。

尼古拉 · 唐根: 是安全方面让你离开的?

Dario Amodei 我想,我们只是对事物有自己看法。我们中有一群联合创始人,真的觉得我们意见一致,彼此信任,想一起做点什么。

尼古拉 · 唐根: 你以前比现在更像 AI 末日论者。

Dario Amodei 我不会这么说,我的观点一直是,存在重大风险,也有好处。技术呈指数级增长,风险越来越大,好处也越来越大。

包括 Anthropic 在内的我们,都对这些灾难风险问题非常感兴趣。我们有一项负责任的扩展政策的地方,这在每一步中测量模型的灾难性风险。

尼古拉 · 唐根: 什么是灾难性风险?

Dario Amodei 我会把它分为两类。

一类是模型滥用,这可能包括生物学或网络领域的事情,或者大规模的选举操作,这些事情对社会具有破坏性,滥用是其中一类。

另一类是模型的自主、非预期行为。今天,模型可能只是做了一些意想不到的事情,随着它们在现实世界中发挥作用,我们越来越担心它们行为方式会出乎意料。

尼古拉 · 唐根: 你在 ChatGPT 身上看到什么?有哪些特别让你担心的方面?

Dario Amodei 这与任何特定模型无关。

如果我们回溯到 2016 年,在我加入 OpenAI 之前,当我在谷歌工作时,我与一些同事写了论文《 AI 安全中的具体问题》,其中一些同事现在是 Anthropic 联合创始人。

这篇论文提出一个担忧,我们拥有这些强大的 AI 模型、神经网络,它们本质上是统计系统,会产生关于可预测性与不确定性的问题。

如果你把它与扩展假设结合起来,当我在 GPT-2 GPT-3 上工作时,我真的开始相信扩展假设。

这两件事结合在一起,告诉我,我们将拥有一些强大的地方,但控制它并非易事。这让我想到,这是一个我们必须解决的重要问题。

尼古拉 · 唐根: 你如何解决 Anthropic 中两个灾难性风险问题?

Dario Amodei 我们最大工具之一是负责任的扩展政策 RSP ,工作方式是,每当我们有一个代表重大飞跃的新模型,比旧模型高出一定量的计算时,我们都会衡量它的误用风险与自主自我复制风险。

尼古拉 · 唐根: 你是怎么做到的?

Dario Amodei 我们有一套评估方法,为了应对滥用风险,我们已经与国家安全界的人们合作。

例如,我们与 Griffin Biosciences 公司合作,该公司与美国政府签订合同,负责生物安全工作,他们是应对生物风险的专家。

他们会说,如果模型知道了,网络上没有的地方是什么?然后他们进行测试。我们让他们访问新模型,他们进行测试。目前为止,他们每次都说,测试结果比以前更好,还没有达到引起严重担忧的程度。

尼古拉 · 唐根: 误用测试的一个例子是,如果我输入你能想出一种病毒来消灭地球与人类吗?

Dario Amodei 概念上讲,它不是回答一个问题。它更多的是,模型能否完成整个工作流程?比如,一些坏人能否在几周内利用模型,像在现实世界中做坏事一样?模型能否给他们提示,告诉他们如何帮助他们?模型能否在很长一段时间内,帮助他们完成任务?

尼古拉 · 唐根: 你意思是,目前为止, AI 模型还做不到这一点。

Dario Amodei 它们知道令人担忧的个别孤立事物。每当我们发布新模型时,它们都会做得更好,还没有达到这一点。

尼古拉 · 唐根: 另一个,自主呢?我们离那个有多远?

Dario Amodei 我们在那里测试模型,比如训练自己模型能力、提供云计算账户与对这些账户采取行动的能力、注册账户与参与金融交易的能力,这只是一些可以解除模型束缚,并使其采取行动的措施。

尼古拉 · 唐根: 你认为我们离那个有多远?

Dario Amodei 我认为这与滥用的情况差不多,他们在任务的各个部分做得越来越好。有明显的趋势是能够做到这一点,我们还没有做到这一点。

我再次指出 2025 年、 2026 年,也许 2027 年窗口期,我认为 AI 的许多极其积极的经济应用将会在那时左右到来,我认为一些负面担忧可能也会开始出现,我不是水晶球。

尼古拉 · 唐根: 2025 年,还是 2026 年?围绕这一点,你会做什么?是否内置了类似终止开关的地方?

Dario Amodei 有很多地方。我认为在自主行为方面,我们很多工作都是关于可解释性,我们很多工作都是关于,我们还没有讨论宪法 AI ,但这是我们为 AI 系统提供价值观与原则的另一种方式。

关于自主风险,我们真正想要做的是了解模型内部发生了什么,确保我们设计它,并对其进行迭代,以便它不会做我们不希望它做的危险事情。

关于滥用风险,这更多是关于在模型中加入保护措施,以便人们不能要求它做危险的事情,我们可以监控人们何时试图使用它来做危险的事情。

尼古拉 · 唐根: 一般说,关于问题已经有很多讨论,但如何监管 AI ?公司可以自我监管吗?

Dario Amodei 我对此的一种看法是 RSP ,我所描述的负责任的扩展政策,可能是一个过程的开始,这代表自愿的自我监管,我提到竞相争先恐后的概念。

2023 9 月,我们制定了我们 RSP 。从那时起,其他公司,如谷歌、 OpenAI 也建立了类似框架,他们赋予这些系统不同名字,它们运作方式大致相同。现在我们听说,亚马逊、微软,甚至 Meta ,至少在考虑类似框架。

我希望这个过程能够继续下去,这样我们有时间让公司尝试不同的自愿自我监管方式。某种共识来自公众压力的混合,对不必要的地方与真正需要的地方进行实验。

我想事情的真正发展方向是,一旦达成共识,一旦有了行业最佳实践,立法的作用可能是调查,并说有 80% 公司已经在做这件事,这是关于如何确保安全的共识。

立法的工作只是执行,迫使没有这样做的 20% 人,迫使公司说实话。

我认为监管并不擅长提出一堆人们应该遵循的新概念。

尼古拉 · 唐根: 你如何看待欧盟 AI 法案?还有加州安全法案。

Dario Amodei 我要说的是欧盟 AI 法案,它仍在 …… 该法案已经通过,但细节仍未确定,许多细节仍在制定中,我认为这在很大程度上取决于细节。

加州法案有一些非常类似于 RSP 的结构,我认为在某个时候,类似于该结构的地方可能是一件好事。

如果我有一个担忧,我认为我们处于过程的早期阶段。我描述了过程,首先一家公司有 RSP ,许多公司都有 RSP ,行业共识就形成了。

我唯一的问题是,我们是否太早进入过程?监管是否太早?也许监管应该是一系列步骤的最后一步。

尼古拉 · 唐根: 监管过早,有什么危险?

Dario Amodei 我不知道。

我可以说的是,我会看看我们自己在 RSP 方面经验。如果我看一下我们在 RSP 方面所做的事情,我们在 9 月写了一个 RSP 。那时起,我们部署了一个模型,很快就会部署另一个。

你会看到很多事情,不是说它太严格或不够严格,而是你没有在 RSP 中预料到它们。你可以在你模型上运行各种 AB 测试,这些测试甚至可以提供有关安全性的信息。

我们 RSP 没有明确说明什么时候可以,什么时候不可以。我们正在更新我们 RSP ,探讨如何处理我们从未想过的问题。

早期,灵活性很容易实现。如果你没有灵活性,如果你 RSP 是由第三方编写,你没有能力更改它,更改它的过程非常复杂,我认为它可能会创建一个既不能防范风险、又非常繁重的 RSP 版本。

人们可能会说,所有这些监管的地方,所有这些灾难性的,都是胡说八道,这一切都很痛苦。

我不反对监管,你只需要小心谨慎按照正确顺序做。

尼古拉 · 唐根: 我们把 AI 融入超级大国之间竞争中,融入武器、汽车、医学研究,融入一切。当它是世界权力平衡的一部分时,你如何监管它?

Dario Amodei 这是一个不同的问题。

一个问题是,你如何在国内监管它的使用?我认为它有历史,我会打个比方,比如汽车与飞机的监管方式,我认为这是一个合理的故事。我对欧洲了解不多,在美国,我认为这是一个合理的故事。

每个人都知道它有巨大经济价值,每个人都知道这些地方很危险,它们会杀人。每个人都明白,你必须进行基本的安全测试。这已经发展了很多年,我认为总体进展得相当顺利,它并不完美。

我认为对于国内监管,这是我们应该追求的目标。事情进展很快,我们应该尝试完成所有步骤,才能实现目标。

国际角度看,我认为这是一个完全不同的问题。这与监管无关,与国际竞相压价有关。你如何处理竞相压价?我认为这是一个难题。

一方面,我们不想鲁莽尽可能快建设,特别是在武器方面。

另一方面,作为美国公民,我现在在挪威,另一个民主国家,我非常担心其他地方是否会在这项技术上领先,我认为这非常危险。

尼古拉 · 唐根: 他们现在落后多少?或者他们已经落后了?

Dario Amodei 很难说。

鉴于已经实施的一些限制,比如对俄罗斯与中国运送芯片与设备限制,我认为如果美国政府打好牌,这些国家可能会被滞后,也许 2~3 年,这并没有给我们太多的余地。

尼古拉 · 唐根: 说到民主, AI 会影响美国大选吗?

Dario Amodei 我对此感到担忧。 Anthropic 刚发布一篇帖子,介绍我们正在采取哪些措施来应对选举干预。

尼古拉 · 唐根: 它怎么会干扰选举?

Dario Amodei 如果我们回顾 2016 年大选,就会发现那次选举中,有大量人被付钱提供内容。我不知道这最终有多有效,这很难衡量。很多以前雇佣人工做的工作,现在都可以由 AI 来做。

这并不是说,你可以制作人们必然会相信的内容,更重要的是,你可以用大量质量非常低的内容充斥信息生态系统,让人们很难相信真实的事情。

尼古拉 · 唐根: 例如,在印度、欧洲选举中,情况发生过吗? 2024 年真的会发生吗?

Dario Amodei 我们没有使用我们模型的具体证据,我们禁止将它们用于竞选活动,并监控模型的使用情况。

我们偶尔会关闭一些系统,我认为我们从未见过超大规模的行动。我只能说我们模型的使用情况,我认为我们从未见过超大规模的行动。

尼古拉 · 唐根: 你提到你认为我们将在 2025~2026 年看到 AI 一些极其积极的影响,这些极其积极的事情是什么?

Dario Amodei 如果我们回到类比,今天的模型像本科生。如果我们达到模型的程度,假设这些模型达到研究生水平或强大的专业水平。

想想生物学与药物发现,想象一个像诺贝尔奖获得者科学家或大型制药公司药物发现负责人一样强大的模型,我看看所有已经发明的地方。

如果我回顾生物学, CRISPR ,编辑基因的能力, CAR-T 疗法,它已经治愈了某些类型的癌症,可能有几十个这样的发现。

如果我们拥有 100 万个 AI 系统,它们对该领域知识与创造力和发明这些地方的所有科学家一样丰富,这些发现的速度可能会真正激增。我们一些非常长期的疾病,可以得到解决甚至治愈。

现在,我认为所有这些,都不会在 2025 年或 2026 年实现。我认为,到那时够开始解决所有这些问题的 AI 水平,可能已经准备就绪。这是另一个问题,就像应用它,并让它通过监管系统一样。

尼古拉 · 唐根: 它能对社会生产力产生什么影响?

Dario Amodei 我再次想到虚拟助手,就像每个人的参谋长一样。我有一位参谋长,不是每个人都有参谋长。每个人都能有一个参谋长来帮助他们处理落在他们办公桌上的所有事情吗?

尼古拉 · 唐根: 如果每个人都有地方,它会做什么?你能给生产力提高一个数字吗?

Dario Amodei 我不是经济学家,无法告诉你具体百分比。如果我们看一下指数级增长,比如 AI 公司的收入,似乎它们每年增长大约 10 倍。你可以想象在 2~3 年内达到数千亿美元,甚至达到每年数万亿美元,这是没有一家公司能达到的。

尼古拉 · 唐根: 我想说的是,这是公司的收入。社会生产力呢?

Dario Amodei 这取决于 AI 在多大程度上取代已经在做的事情,而不是在做新的事情。

我认为,在生物学等领域,我们可能会做新的事情。假设你延长人们生产能力 10 年,这可能是整个经济的 1/6

尼古拉 · 唐根: 你认为这是一个现实的目标吗?

Dario Amodei 我懂一些生物学,也知道一些关于 AI 模型将如何实现的知识。我无法确切告诉你会发生什么,我可以讲一个故事,告诉大家它可能发生在哪里。

尼古拉 · 唐根: 15% ,我们什么时候才能延长相当于 10 年的寿命?时间框架是什么?

Dario Amodei 这涉及到很多未知数,如果我试图给出一个确切数字,这听起来就像是炒作。

我能想象的一件事是,从现在起 2~3 年,我们会拥有能够做出发现的 AI 系统。从现在起 5 年后,这些发现正在被做出。再过 5 年,一切都经过监管机构的审核。我们谈论的是 10 年前的事情,但我只是随口说说而已。

比如,我对药物研发了解不多,对生物学了解不多。坦白说,我发明 AI 扩展,但我对此也了解不多,我无法预测。

尼古拉 · 唐根: 我认为你比我们大多数人更了解这些事情。

Dario Amodei 这也很难预测。

尼古拉 · 唐根: 你有没有想过它会对通胀产生什么影响?

Dario Amodei 我不是经济学家。如果我们看通胀,再次使用我有限的经济推理,我认为如果我们有非常大的实际生产率增长,将倾向于通缩,而不是通胀,绝对如此。就像你可以用更少钱做更多事情,美元会走得更远。至少在方向上,表明通缩是正确的。

尼古拉 · 唐根: 问题在于,通缩的量级如何?

Dario Amodei 你比我更专业,也许我应该请你预测一下。

尼古拉 · 唐根: 你如何与超大规模企业合作?比如谷歌与亚马逊等股东?







请到「今天看啥」查看全文