专栏名称: 深蓝AI
专注于人工智能在线教育
目录
相关文章推荐
河北青年报  ·  刚刚,王楚钦战胜林诗栋! ·  昨天  
河北青年报  ·  刚刚,王楚钦战胜林诗栋! ·  昨天  
中国城市规划  ·  要闻 | ... ·  2 天前  
环球网  ·  樊振东:希望得到大家祝福 ·  昨天  
环球网  ·  樊振东:希望得到大家祝福 ·  昨天  
51好读  ›  专栏  ›  深蓝AI

李飞飞团队驳斥AGI:LLMs有感知能力吗?

深蓝AI  · 公众号  ·  · 2024-05-24 17:38

主要观点总结

本文介绍了自2022年11月ChatGPT发布以来,LLMs(大语言模型)在人工智能领域引发的争议和关注。文章重点介绍了李飞飞教授和John Etchemendy教授关于LLMs是否具备感知能力的驳论,以及他们对AGI(通用人工智能)的讨论。文章还提到了LLMs的发展趋势,以及其他行业对AGI概念的关注。最后,文章提出了关于LLMs是否具备感知能力的思考,并邀请读者在评论区留下答案。

关键观点总结

关键观点1: LLMs成为人工智能领域的争议焦点

自ChatGPT发布以来,LLMs一直是人工智能领域最有争议的话题之一。李飞飞教授和John Etchemendy教授的驳论文章引发了关于LLMs是否具备感知能力的讨论。

关键观点2: 两位教授关于LLMs感知能力的驳论

李飞飞教授和John Etchemendy教授从AGI的概念出发,讨论了AI→AGI中的「G」的意义,并阐述了他们关于LLMs是否具备感知能力的观点。他们认为LLMs的回应是基于人类输入的prompt,而非自身产生的主观意识。

关键观点3: LLMs的发展趋势和AGI概念的应用

文章提到了LLMs的发展趋势,以及其他行业对AGI概念的关注。并指出,LLMs在AI领域的应用已经引发了对感知能力的讨论。

关键观点4: 邀请读者对LLMs的感知能力发表看法

文章最后邀请读者就LLMs是否具备感知能力这一议题发表自己的看法,并在评论区留下答案。


正文

笔者:Los


从2022年11月ChatGPT发布以来,LLMs就一直是人工智能领域最有争议点的“顶流话题”,被称作大模型时代的当下,其实细究起来更应该叫做「大语言模型时代」,也就是LLMs时代。
 
乃至今年科技界重点关注的「AGI」,都需要LLMs来实现。可见,LLMs已经有几乎不能被“质疑”的地位。
 
但有关它的质疑声也没有停过——
 
今天北京时间5:17,斯坦福HAI院长李飞飞教授在社交平台发布一条动态,撰写一篇严肃的驳论文章来驳斥「LLMs已具备感知能力」的“主观认知”,文章题为「No, Today’s AI Isn’t Sentient. Here’s How We Know


 
这篇文章是斯坦福哲学教授 John Etchemendy(同样也是HAI的联合创始人之一)与李飞飞共同主张撰写。
 
在李教授发布的这条动态下面,有20+条十分权威的工程师都发表了自己的看法,言辞也是颇为犀利……小编在此也只截取部分以供各位了解:


有趣的是,这篇文章的源头只是一次WhatsApp的辩论聊天,但辩论往往会引发更多的思考和表达。基于这次群聊,在这几个月里,李飞飞和John联系了多位AI学家,针对LLMs的感知能力问题进行了一对一/一对多的辩论,继而得出了一些结论并创作出了这篇文章。
 
小编通读这篇文章后,结合LLMs的发展趋势以及李飞飞长久的AI观点,做了比较主观的总结阐述,以飨读者(如果对原文及更多辩论信息有兴趣的各位,最好还是阅读原文,每个人的视角都不同,相信你们会有自己的理解)
 
两位教授开篇先从AGI的概念展开讨论,AI→AGI中的「G」到底有什么深刻的意义:
 

The felt need to add the “G” came from the proliferation of systems powered by AI, but focused on a single or very small number of tasks. Deep Blue, IBM’s impressive early chess playing program, could beat world champion Garry Kasparov, but would not have the sense to stop playing if the room burst into flames.


“之所以要添加‘G’(通用),是因为由AI驱动的系统大量涌现,但它们只关注一个或很少几个任务。IBM早期令人印象深刻的国际象棋程序“深蓝”能够打败世界冠军加里·卡斯帕罗夫,但如果下棋的房间着了火,它是不会有停止下棋‘逃命’的意识的。”


是各位众所周知的「专用」技术与「通用」技术长久以来的局限,人类可以在专注做A事件的时候处理突发的B事件,但只为A事件而生的人工智能就在B事件上不会有作为——除非它可以自己产生「处理B事件」的应急程序,当然这就是“鬼打墙”事件了。
两位教授也戏称,AGI就是这样被赋予了某种“神话”色彩:

Now, general intelligence is a bit of a myth, at least if we flatter ourselves that we have it. 

 
‘if we flatter ourselves that we have it.’甚至可以说是非常犀利了。
 
两位教授在文中对于人类及动物的智能与AI的智能比较,用了非常有趣的假设,一定程度上看得出来两位对目前的AI概念的态度倾向了。
 
随着AGI概念的讨论,本文也就开始阐述起了这次驳论的核心:「感知」。
 
如果AGI要实现「G」的畅想,那就要求AI具备和人一样可以「感觉」「了解」并「应对」多项不同事件的能力,这就是「感知」。
 
拥有「感知」无疑将会是AI技术的历史性进步,但它也会引起恐慌:“AI有自主意识了?”“AI要打败人类了?”
 
虽然包括小编在内的许多人目前所掌握的信息都让我们认为:在我们尚能摸爬滚打的时间里,AI是没法取代人类的;但依旧有不少人认为AI已具备让人类感到危险的「感知力」。
 
为什么会有这样的认知呢?
 
两位教授采访多位AI学者后,总结了这些支持方极具代表性的观点:
 
AI is sentient because it reports subjective experience. Subjective experience is the hallmark of consciousness. It is characterized by the claim of knowing what you know or experience.
 
简单来说就是他们认为LLMs的一些回答中包含着具备情感色彩的词语,这是一种主观的体验,那就说明AI具有一定范围内的“自主意识”。
 
听起来似乎诡异又很有道理,但李飞飞方直截了当地对这种观点进行了反对:
 
以支持方所举的“我感到饥饿”的场景回答为驳斥核心,李飞飞方提出了一个关键词「生理特征」——当人类感到饥饿的时候,他们是在感知一系列生理状态——低血糖、空荡荡的肚子咕噜作响等——而LLMs根本没有这些生理状态,就像它没有嘴巴可以进食和没有胃可以消化食物一样。
 
一直以来,我们为了区别人类与一般动物,都在强调“思想”,自然而然地将“思想”作为了一切“类人”的标准,但我们忘记了“思想”的基础是生物状态。
 
正如两位教授所说:
 

All sensations—hunger, feeling pain, seeing red, falling in love—are the result of physiological states that an LLM simply doesn’t have. Consequently we know that an LLM cannot have subjective experiences of those states. In other words, it cannot be sentient.


An LLM is a mathematical model coded on silicon chips. It is not an embodied being like humans. It does not have a “life” that needs to eat, drink, reproduce, experience emotion, get sick, and eventually die.

 

“所有感觉——饥饿、感到疼痛、看到红色、坠入爱河——都是生理状态的结果,而LLMs根本没有这些生理状态。因此我们知道LLMs不可能有这些状态的主观体验。换句话说,它不可能有感知力。

 
LLMs是在硅芯片上编码的数学模型。它不是像人类一样的实体存在。它没有需要吃饭、喝水、繁殖、体验情感、生病并最终死亡的‘生命’。”
 
李飞飞方认为,LLMs大模型们给出的所谓带有“主观意识”的report,都是在人类向其输入了带有“主观意识”的prompt后才有的,而非它自己产生。
 
两位教授认为,如果我们想要AI真的「G」起来,那就需要学者们更好地理解感知力是如何在具有实体的生物系统中产生的——也就是李飞飞一贯所说的“AI需要以人为本”。
 
总的来说,这篇文章并没有在技术和token方面剖析LLMs的“感知力”,反倒是抛开技术者的身份,谈论更加社会面的议题。但我想,如果站在技术完成角度来说,这个“感知”又会有另一层解释逻辑。
 
不过,小编十分认可李教授的“AI以人为本”的原则,毕竟AI最初且直到现在都没有抛弃assistant的后缀定义,我们人类更不能反其道而行之。
 
*本次总结中部分肯定意味较强的语句为自主思考,千人千思,尊重也欢迎各位持不同意见。*

 

✨AGI栏目新报道🙋


2024年有关AGI的讨论愈发热烈,不止业界人士在思考AGI落地的问题,其他行业都盯上了AGI这个概念。而自从Sora问世,到5月份Open AI、Google、微软三家共打擂台,比拼谁的多模态大模型更“聪明”更“有用”,我们意识到AI已经逐渐开始卷「通用」了。

因此【深蓝AI】推出AGI栏目,旨在和天南海北的各位畅聊AI在各行各业的应用,以此获得灵感也希望能帮助各位对「AI应用」有更深度的了解。

不论是「AI+医疗」「大模型加速部署」「AI for science」「AI+教育」「AI+金融」还是「AI伦理」「强弱AI」,都可能作为我们讨论的专题。

我们期待:读者们能在【留言区】或【私信区】告诉我们你想探讨的议题和理由,并在每次栏目的Q&A环节给出你的见解。(或许偶尔会有惊喜掉落😋)

读者们还可以扫码加入【深蓝AI】的AGI讨论群,欢迎各位畅聊AI应用,或许你们也能找到合作交流的机会👇(禁止打广告⚠️)


本次思考Q&A:

你觉得LLMs具备感知能力了吗?欢迎在评论区留下你的答案。

【深蓝AI】的原创内容均由作者团队倾注个人心血制作而成,希望各位遵守原创规则珍惜作者们的劳动成果,转载请私信后台进行授权,发文时务必注明出自【深蓝AI】微信公众号,否则侵权必究。

*点击在看收藏并推荐本文*

点击阅读原文通读李飞飞最新驳论