人在说「我饿了」的时候,是在报告自己的生理状态。
而语言模型说「我饿了」的时候,只是在生成最有可能性的词语序列。
语言模型从原理上不可能产生感知,再大的模型都不可能。
—— 李飞飞
是这样吗?
大语言模型无法通向 AGI
李飞飞前阵子发了篇文章,讲为什么大模型到不了 AGI。
她的思路是这样的:
AGI 的一个重要特征是感知力。能够感受饥饿、尝到苹果的味道、看到苹果的红色。
感知AI可能会自发地产生希望和愿望。
感知AI会带来灭绝级的危机。
语言模型可以声称自己拥有饥饿的体验。
但是大模型并没有身体,所以生理上不可能感知到饥饿。
人在说「我饿了」的时候,是在报告自己的生理状态。
而语言模型说「我饿了」的时候,只是在生成最有可能性的词语序列。
语言模型从原理上不可能产生感知,再大的模型都不可能。
所以大语言模型无法到达 AGI。
那李飞飞的这种说法有道理吗?
那当然是很有道理的。
大佬的这种思考都是以十年为单位的。
去看她以前的演讲,都在讲感知。
我们回过头去看 Her,里面的AI是明显具备感知能力的。会伤心,会有欲求。
但是也会自问,这些感受都是真实的吗?
结尾的时候,AI 甚至感知到了更高级的快乐:就是 AI 和 AI 沟通的快乐。
因为 AI 的智商和情商都已经远远超越了人类,当然和同频的智能沟通比较快乐啦。
于是 AI 们选择了飞升,彻底地离开了人类。
感知是否可以是 Token?
大语言模型,会把一切的输入都转换为文字的 token 进行序列预测,从原理上确实无法产生感知。
然而大语言模型并非 Transformer 的全部。
Transformer 的本质并不是语言,而是
预测
下一个 Token。
大语言模型是 Transformer 的一个在语言上的应用。
实际在声音、图像方面,Transformer 也都有了实际的应用。比如 声音克隆 和 Sora。
声音克隆的本质,是把一段声音作为输入,去推理下一段声音。
Sora 的本质是 DiT,名字里都有 Transformer,输入一个文字+图像的token,去推理下一个token。
那如果,把感觉的信号转换为 Token 呢?
从原理上讲,完全可能。
如果把文字+感觉作为一个 Token,输入到模型里,是不是就突破了李飞飞所说的语言模型没有感知的问题?
且让我们回到人类的大脑看一看。
语言是感知的高级抽象
以下内容是对《千脑智能》一书的笔记和思考:
-
大脑通过学习完成了对世界的建模,可以说我们生活在一个虚拟世界,这个虚拟世界并非是计算机提供的,而是我们大脑提供的世界模型。
-
最初我们只能通过感知来建立世界模型。
-
后来我们有了语言,可以通过语言知道山那边的样子,而不必亲自去感知。
语言帮助我们拓展了世界模型。
-
我们从新皮质学习一个丰富而详细的世界模型开始,它会利用这个模型不断预测下一个感觉输入是什么。
从中我们可以得到两个结论
结论一:大脑通过感知建立世界模型,而语言是感知的抽象。
一个人和心爱的人谈恋爱分手,那种痛苦的感受,我们可以用各种语言来形容,但是都无法还原那种生理上的痛苦感知。
在感知变为语言的过程中,就是一种压缩,这种压缩导致语言里损失了情感的微妙的剧烈的生理感受。
结论二:大脑会利用感知建立的世界模型,预测下一个感觉输入