专栏名称: 春暖花开
“春暖花开”是传播管理者践行者陈春花知识的自媒体,内容涵盖最新的管理思想、商业评论、演讲实录、著作连载与人生感悟。
目录
相关文章推荐
淘股吧  ·  挑战异动!今晚关注消息...... ·  昨天  
XYSTRATEGY  ·  【兴证策略张启尧团队】谁在买港股? ·  昨天  
俊杰财经  ·  2月26日股市内参(股市早知道,快人一步) ·  2 天前  
俊杰财经  ·  2月26日股市内参(股市早知道,快人一步) ·  2 天前  
圆圆说财实盘  ·  逆势15CM!这票后期或将大涨!!! ·  3 天前  
51好读  ›  专栏  ›  春暖花开

李飞飞:我不知道AGI是什么,我们应该尊重人类的能动性

春暖花开  · 公众号  ·  · 2025-02-18 06:30

正文



近日,“AI 教母”、斯坦福大学首位红杉讲席教授李飞飞做客由美国知名风险投资家、LinkedIn 联合创始人 Reid Hoffman 主持的播客频道 Possible,逐一回答了上述问题,并分享了她从 2009 年创建 ImageNet(AI 行业第一个大型图像识别数据库),到目前担任空间智能初创公司 World Labs 联合创始人兼首席执行官的历程

来源:学术头条

编译:董怡楠

审核:学术君

正文字数 2299 阅读 10 分钟

我们如何利用人工智能(AI)放大人类潜能,创造更美好的未来?AI 为何要“以人为本”?通用人工智能(AGI)究竟意味着什么?未来 15 年可能会发生什么?

在采访中,李飞飞还解释了为什么 空间智能 对 AI 的发展如此重要,以及它 如何能在医学、气候和教育等领域带来突破 ,进而导致 现实与数字之间的界限将开始变得模糊

对于 AI 将会为人类带来怎样的未来这一议题,李飞飞从 AI 治理、政策制定与 AI 应用层面给出了具有建设性的观点。从宏观层面来说,她认为 AI 不只属于部分技术精英,而应该属于所有人 ,这也是她创立非营利性组织 AI4ALL 的出发点,即通过教育培养下一代 AI 技术专家、思想家和领军人物,并提高 AI 领域多样性和包容性。

在李飞飞看来,AI 的发展应该以 提升人的能动性(agency) 为目标,通过人与 AI 的合作赋能人类,为所有人打造一个积极的、以人为本的 AI 未来:

“人类能够创造近似‘上帝一样’的技术,从而改进我们所处的‘中世纪’式制度,并超越、或 引导我们那‘旧石器时代’的情感,让它们变成创造力、生产力和善意。

学术头条在不改变原文大意的情况下,对整体内容做了精编,如下:

Reid :很高兴见到你。欢迎来到 Possible。

李飞飞 :我也是。很高兴见到你和 Aria。

Reid :是什么让你有了开发 ImageNet 的想法?比如说,“啊,我们需要这么做。”

李飞飞 :我很难给出一个非常明确的时刻,但 差不多是在 2006 年 ,当时我正在深入研究如何使用机器学习算法来理解物体和图像。无论我把目光投向哪里,我都无法回避这样一个事实,即 机器学习模型存在一个数学概念,叫做“过拟合” 。这是 指模型的复杂性与模型所使用的数据并不完全匹配 ,尤其是当数据--不仅仅是数据量,而是数据的复杂性和数据量--并不能真正有效地驱动模型时。当然,并不是所有模型都是一样的。我们现在知道,神经网络模型具有更高的容量和表征能力。抛开这些术语不谈,数据与模型之间肯定存在相互作用,而我(当时)看到,在每个地方,人们都不关注数据。

我们(那时)只关注模型。就在那一刻,我突然意识到:“我认为我们不应该只关注模型,或者说,我们关注的方式是错误的。 我们需要关注数据,用数据来驱动模型 ”。当然,就在那时,我转到了普林斯顿大学任教。 我接触到了一项名为 WordNet 的工作 。WordNet 与计算机视觉毫无关系 但它是组织世界上各种概念的绝妙方法。而且,我也喜欢这个名字。然后顺理成章,ImageNet 也问世了。我非常 强烈地相信大数据和视觉世界多元化表征的需求。

Reid :我是在你 AI 职业生涯的中点,从令人惊叹的 ImageNet 开始聊的,现在我们来谈谈 World Labs,从 ImageNet 转到 World Labs 上。World Labs 的理念是什么?你们正在构建的东西有什么是我们的未来方向、以及理解 World Labs 本身和 AI 趋势的关键部分?

李飞飞 :是的,Reid,我们谈论过这个,对吧?我们最喜欢的话题——技术发展的方向。老实说,在我的职业生涯中,尤其是在 ImageNet 之后,我一直痴迷地思考一件事,那就是 什么是智能,以及我们如何在机器上实现智能 。在我看来,如果从人类智能的角度来看,这其实 可以归结为两件简单的事情

一是我们会说话 。我们使用语言交流作为工具来交谈,组织起我们的知识并传递信息。 另一个是 ——也是对我们意义深远的那一半智能是—— 我们会做事 。比如,我们做蛋饼,我们徒步,我们和朋友玩乐,享受彼此的存在,这远远超出了我们所说的任何一句话,而这只需要我们能舒适地坐在对方面前。

还有,拿着一个啤酒罐,所有这些事情,这是智能的一部分,而 这部分智能的真正基础,在于我们能够理解我们所生活的三维世界 ,感知它,并将它转化为一整套理解、推理和预测,这样我们就能在这个世界中做事。在我看来, 这种能力被称为“空间智能” ,是人类等智慧动物所具备的最基本的天赋能力,也就是处理三维空间的能力。

所以, ImageNet 的出现是因为我一直在探索如何给二维图像中的像素贴标签 ,而对人类来说,二维图像是三维世界的投影。因此你可以看到,这就是一个婴儿朝着理解我们生活的更完整世界--视觉世界迈出的第一步。而这个婴儿迈出的一小步至关重要,因为无论是对于人类、动物还是机器来说, 理解这些物体和图像,给它们贴上标签都是关键的第一步


但现在,天哪,14 年、15 年过去了,我认为我们已经准备好进行一场更大的探索,几乎是一场全垒打探索,以解开智能最重要的另一半——也就是空间智能问题。空间智能之所以有趣,是因为 它实际上包含两个方面:一个是物理三维世界,另一个是数字三维世界。 我们从未真正能生活在这两者之间。但现在,空间智能可以成为一种统一的技术,让三维接地世界和数字三维世界都变得有意义。


Aria: 所以,当我思考空间智能的前景时,你知道, 如果你回到 1880 年——马车、未铺设的道路——你会觉得,这是一个完全不同的世界 。但如果你回到 1980 年--好吧,就像人们开不同的车,但他们仍然住在同样的建筑里,仍然开着车。某种程度上来说,这个现实世界的机制是基本一样的。你认为在未来几十年里,你说的另一半智能会改变这一切吗?我们是否会看到现实世界的巨大转变,就像过去几年我们在数字世界看到的那样?

李飞飞: 我认为会的, 我认为现实与数字之间的界限将开始变得模糊 。举个例子,我在高速公路上开车,如果车胎爆了,尽管我是个技术专家,我有种预感,这会给我带来很大的麻烦。但如果我能戴着一副眼镜,或者把我的手机对准汽车,对于爆胎这个问题,我只需要与装在里面的应用合作,引导我进行换胎,无论是通过视觉引导,还是通过对话或混合方式。

我认为这是一个非常普通的日常生活例子,它真正打破了物理三维世界和数字三维世界的界限。无论是更换爆胎还是做心脏手术,这样的技术都能为人们赋能,这对我来说是一个非常令人兴奋的想象。


Aria: 所以你说,用大语言模型(LLM)来教自己一些东西,这个我一直认为是非常鼓舞人心的。就像我的孩子们总是说,“哦,我不学了,我数学很好,不需要再学了。”而我可以说, “不,不,李飞飞都在用 LLM 学习。我觉得你还需要继续学” 。但是,当你谈论大世界模型(LWM)与 LLM 时,你是怎么看待这两者的?你如何向人们解释他们的差异,以及你认为未来会如何发展?

李飞飞: 从根本上说,就像我说过的,一个是关于说的,另一种则是看和做。所以,从根本上说,它们是不同的模态。 LLM 的基本单位是词库 ——无论是字母还是单词。而在我们所说的 “世界模型”中,基本单位则是像素或体素 。因此,它们是截然不同的语言。我几乎觉得语言是人类的语言,三维是自然的语言。我们真的希望AI算法能够让人们与像素世界进行互动,无论是虚拟世界,还是物理世界。

Reid: 你的回答让我想起你引用过的一句话,社会生物学家 Edward O. Wilson 曾说 “我们有旧石器时代的情感,中世纪的制度,上帝一般的技术,这是极度危险的。”所以,在这样一个拥有自然语言思维、又需要教育大众的情况下,你觉得要怎样“反转”这个说法?或者说,在 AI 时代,人类有哪些机遇?

李飞飞: 我仍然相信 Wilson 的那句话,也正因为如此,你和我以及我们的朋友们才一起创办了以人为本人工智能研究院(HAI)。如果我要反转那句话, 我可能会这么讲:人类能够创造近似“上帝一样”的技术,从而改进我们所处的‘中世纪’式制度,并超越、或引导我们那‘旧石器时代’的情感,让它们变成创造力、生产力和善意。

Reid: 那你认为要帮助人类实现这些理想,我们构建这种技术的关键是什么?重点是放在“同情心”上吗?还是说这是一个以人为本和人与技术交互共生的问题?如果想让科技和 AI 帮助我们实现更好的自我,你觉得下一步最该做的是什么?

李飞飞: 我知道你为什么主修哲学跨学科专业(Sym-Sys)了,你的思考体现了哲学和技术的结合。我同意你的观点,就像前面引用的,我们几乎把“旧石器时代”当作一个负面的词,但它其实并不是一个负面的词,它是一个非常中性的词。 人类的情感或者说人类的自我形象认知深深植根于进化 ,植根于我们的 DNA,这是不会改变的。我们的世界也正因为如此而既美丽又混乱。

因此,在思考技术以及未来人类与技术的关系时,我认为我们需要尊重这一点。 我们需要尊重人类最根本的、根源于“旧石器时代”的自我 。科技发展中,有一些事情真的需要尊重,我们越尊重它,越能成为更好的我们。 一是尊重人的能动性 。我认为其中一个关于 AI 的公共沟通问题就是我们经常在句子中将 AI 作为主语,而人类的能动性被拿掉了,比如“AI 能够治愈癌症”这样的句子。

我有时甚至也会不小心这样说。事实应该是人类将利用 AI 治愈癌症,而不是 AI 治愈癌症。还有说“AI 将解决核聚变问题”,事实是人类科学家和工程师将把 AI 作为解决核聚变的工具。更危险的说法是“AI 会夺走你的工作”,我认为我们真的需要认识到, 这项技术有更多的概率来创造机会和工作来增强人类的能动性 ,这是我在意的非常重要的第一个基本原则。

第二个基本原则是尊重人类 。每个人都希望身体健康、有生产力、在社会受人尊重。无论我们如何发展或使用 AI,我们都不能忽视这一点。忽视这一点是危险的,会适得其反。我认为,仅这两点就对指导我们发展这项技术至关重要。


Reid: 我很喜欢你对人类能动性的深入思考。你能再多谈谈能动性以及让 AI 以人为本的重要性吗?以人为本的 AI 意味着什么?技术专家和技术公司应该如何思考这个问题?

李飞飞: 对这个问题的讨论根植于这样一个坚定的信念: 任何技术、任何创新都应是让人类向善的 。这也是人类文明的弧光——每当我们创造出一种工具,我们都希望用这种工具带来更好的世界。当然,这也是一把双刃剑,我们可能会误用工具,会有不良的行动者使用工具。因此,即使看到技术和工具的阴暗面,也会促使我们加倍努力,让它们变得更好。至于如何让 AI 以人为本, HAI 的基本原则,以及我们一起在斯坦福创办它的根本原因就是, 我们把 AI 视为一种强大的工具——一种文明性工具 。我们最好尽早建立起一个将人类和人类利益置于核心的框架,我认为以人为本的 AI 最关键的一点,以及它应该如何指导每一家公司、每一位开发者,就是 为人类赋能

Aria: 你已经在 AI 领域工作了很长时间,涉及过许多不同的方面。而一些人现在才刚刚了解 AI。你如何看待现在的 AI 创新——无论是从我们所处的位置,还是从开发者所面临的问题来看。你觉得要想解决这些问题、再上一个台阶,我们当下该做些什么?

李飞飞: 我们正处于一个现象级的时刻。 这是一个革命性的拐点,因为 AI 现在可以进入个人和企业的日常使用中 。如今,我们这些早期的 AI 探索者在职业生涯初期的许多梦想都已经实现或即将实现。例如,公众常常说起“图灵测试”,而如今这几乎已经被解决的问题。虽然图灵测试本身不会是衡量智能的终极标准,但它曾经被视为一个极难攻克的标准,如今也已经被突破了。汽车能自动驾驶了,对吧?虽然还没有完全解决,但已经比 2006 年解决得多了。

所以,随着这些模型真正用于生产环境,被普通人和企业使用,我认为这是 AI 革命的一个非凡阶段。不过我也清楚地知道,我们身处硅谷泡沫中,我仍然认为放眼全球,很多人还没有跟上 AI 的发展速度。但我们确实看到了未来,看到了未来的走向。

Aria: 我感觉很多听众会对你说的产生共鸣,AI 可能极大地提升人类能力,也可能带来巨大的积极影响,但我们确实需要担心那些负面后果,并希望能在正确的轨道上引导 AI。那从开发的角度看,你觉得我们需要怎么做才能确保 AI 走向积极的方向?如果你认为政府或者跨行业的合作是必要的,也可以谈谈这方面的想法。

李飞飞: 说实话我认为有很多我们能做的,而且我们就应该尽快去做,早就该做了,但现在开始也不算晚,只要我真正投入去做。 第一点,应该基于“科学”而不是“科幻”。 过去有很多炒作的言论,比如 AI 会导致人类灭绝或者 AI 会带来世界和平——两种说法都更像科幻而非科学。所以,当考虑如何制定 AI 政策、对 AI 进行治理时,我们以数据、科学事实、科学方法为基础,这是非常重要的。

第二点,就像许多其他技术和工具一样,我们要在对人类产生影响的地方为 AI 的应用加上“护栏” ,即把治理的精力集中在正确的地方,而不是阻止上游的发展。想想早期的汽车,它并不安全,没有安全带、车门,也没有限速。后来我们也确实付出了一些代价,比如人员伤亡。但我们并没有对福特或者通用汽车说“关停工厂”,而是建立了包括安全带、限速等的监管框架。今天的 AI 也是类似的,它是一项具有深远影响的技术,但也会伴随着风险。因此,我们应该关注的是,当 AI 应用于医疗领域时,我们该如何更新食品药品监督管理局(FDA)的监管条例?当 AI 应用于金融领域时,我们该如何设置监管护栏?所以, 应用层面才是应该集中精力治理的地方


最后一点,我们需要明白,要让 AI 有一个积极的未来,就要有一个积极的生态系统。 这个生态系统需要私营部门的参与,无论是大公司还是初创企业都非常重要。同样,也需要公共部门,因为公共部门生产公共产品。


在我看来,公共产品有两种形式。一是 由好奇心驱动的创新和新知识 。比如用 AI 做聚变研究、用 AI 治疗疾病、用 AI 赋能教师等等。很多这些想法都来自公共部门,就像 ImageNet 当初就来自于公共部门。二是 ,我们需要让教育更多年轻人、更多公众了解这项技术,而公共部门在从 K12(基础教育)到高等教育的领域承担着主要的社会教育责任。


这些就是我在 AI 治理与政策制定层面非常关心的内容。


Reid: 你刚才的谈话其实已经有所涉及,不过我觉得可以再重点谈一下 AI4All ,因为你一直在做的另一件事就是确保 AI 不仅仅关乎斯坦福大学的教授、加州理工学院的博士和物理学家等技术精英,而是关乎所有人的。请你讲讲 AI4All 这个项目,以及它的使命和贡献。

李飞飞: AI4ALL 是一个非营利性组织,由我和我以前的学生、同事共同创立。它的任务其实是通过大学的暑期项目和实习,为来自不同背景的 K-12 学生提供接触 AI 的机会。我们的理念是努力实现公共利益。 在 AI 的教育层面,我们知道 AI 将改变世界,但谁来改变 AI 呢?我们希望有更多元背景的人来使用这项技术 ,为各种伟大的事业开发这项技术,并从中受到启发。

因此,我们的项目一直面向女性,以及来自农村、城市贫困地区、历史上代表性不足的社区和背景的学生,让他们参加这些暑期项目。看到这些年轻人使用 AI 或研究 AI 、改进救护车调度算法,使用 AI 评估乡村社区的水质,真的令人倍感鼓舞。这仍然是一项小规模的工作,但我希望它能不断发展壮大,因为让更多不同的人参与到 AI 领域是一个非常重要的目标。

Reid: 你也在医疗健康领域做了很多工作。AI 在医疗健康领域能做些什么?能谈谈你在医疗领域的工作,以及你对 AI 在这方面未来发展的期望吗?

李飞飞: 正如我在我的书中写到,我对 AI 在医疗健康领域的应用充满热情,原因有很多。 医疗健康领域绝对是以人为本的核心 ,这是一个非常庞大的行业,涵盖从药物研发、体外诊断的基础生物科学一直到临床诊断与治疗、医疗服务和公共卫生的很多节点。因此,令人兴奋的是, 在这个系统的每一个节点上,我们会发现 AI 都能提供很大帮助

我自己喜欢并关注的领域是医疗保健服务,关乎人类之间的互相帮助。在美国,护士的数量远远低于病患的需求量。这份工作非常辛苦,护士流失率很高,这方面有一些惊人的统计数据,比如在一个轮班中,有些护士光是取药、拿设备等平均就要走超过 4 英里路,或者是一个轮班中就要完成多达 150、180 项不同的任务。与此同时,还有病患因为缺乏足够的照顾而从病床上摔下来。分流重症病人和非重症病人方面也存在很多问题,更不用说那些独自在家生活的老人了,他们面临着独居、痴呆症恶化等风险。

因此,医疗保健服务领域需要大量帮助。我在过去十多年的工作中一直在研究使用智能摄像头,即非侵入式和非接触式摄像头,来帮助我们的护理人员关注病人的情况。如果他们躺在医院的病床上,可以关注他们的动向,防止跌倒;如果在家,要关注他们的行为、孤独感或营养摄入情况;如果在手术室,可以监测手术器械的使用情况,让护士不用不断清点器械来保证把物品不会遗留在病人体内。要关注护士每分钟都要清点的器械,这样我们就不会把它们遗失在病人体内。这种智能摄像技术我们称之为 “环境智能”(ambient intelligence) ,目的是帮助医生和医护人员提升对病人的整体护理质量。


Reid: AGI 现在是一个经常被讨论的术语。我记得你好像曾经说过,你不确定 AGI 到底指什么,因为不同人给它的定义都不一样,像是各自的“罗夏墨迹测验”(Rorschach Test)。能否谈你对于 AGI 讨论的看法,让对于话题的讨论能更加理性而不是过于分散、众说纷纭。

李飞飞:






请到「今天看啥」查看全文