专栏名称: 络绎科学
专业的科创成果产业化社区,与青年科学家同行。
目录
相关文章推荐
无时尚中文网  ·  巨头威富中国表现冰火两极:NorthFace ... ·  2 天前  
LADYMAX  ·  蔡崇信豪赌估值30亿欧元的脏脏鞋 ·  2 天前  
二孩妈妈进化论  ·  春光团!韩国女装安乃安春装上新,韩星同款,满 ... ·  2 天前  
二孩妈妈进化论  ·  春光团!韩国女装安乃安春装上新,韩星同款,满 ... ·  2 天前  
51好读  ›  专栏  ›  络绎科学

Yann LeCun再泼冷水:ChatGPT等大模型无法达到人类智能!

络绎科学  · 公众号  ·  · 2024-05-23 17:39

正文


关于 AI 与人类智能孰强孰弱的争论从来都是 AI 界讨论不断的话题。


近年来 ChatGPT-4o 等先进大模型在一些方面所表现出的超越人类的强大能力,又让许多人惊叹人类将被 AI 超越。


前不久,马斯克就曾表示“明年人工智能很可能将比任何人都聪明,而到 2029 年它们将超过整个人类”。


图丨马斯克的相关推文(来源:X)


不过,也并非所有人都这么认为。除了我们之前提到的 Stephen Wolfram ,最近,被称为“AI 教父之一”的 Meta 首席人工智能科学家、图灵奖得主 Yann LeCun ,又给大模型的狂热注入了一针镇定剂。


LeCun 表示, ChatGPT 等生成型人工智能在根本上无法触及人类智能的核心——即那种基于深度理解的推理与规划能力


他特别强调, 当前的 LLMs 对于逻辑的理解肤浅,对现实世界的物理规则缺乏认知,而不具备持续的记忆功能,也无法执行符合常规理解的推理任务,更不用说实现层次化的规划了。


在近日接受英国《金融时报》的采访时,LeCun 进一步阐述 了他的立场,对依赖这些 L LMs 来追求与人类智能比肩的路径提出了质疑。


他警告称,由于这类模型的运作高度依赖于其接收的正确的训练数据,它们在面对未经特意编程的场景或问题时可能给出错误甚至危险的回答,因而“ 本质上不安全 ” 。


鉴于上述考量,LeCun 透露自己正引领团队转向一个革命性的新方向,旨在开发能够赋予机器真正人类智能级别的下一代 AI 系统,尽管这至少需要十年的时间。


LeCun 目前在 Meta 的基础人工智能研究 (Fair) 实验室领导着一支约 500 人的团队。他们致力于创造能够发展出常识并以与人类相似的方式学习世界运作方式的人工智能,这种方法也就是他成为“世界建模”的研究路径。


他对“世界建模”给出的定义是:

图丨LeCun 的相关推文(来源:X)


举例来说,假如你要预测明天的天气,但你手头的信息不全,比如你只知道今天是晴天(观测值 x(t)),昨天的天气情况(作为世界状态的一部分 s(t)),你打算明天去野餐的计划(可以看作一个行动建议 a(t)),以及一些不确定的因素,比如可能会有一场突然的风暴(隐变量 z(t),代表未知但可能影响预测的信息)。


按照他的定义,建立一个“世界模型”就是要创建一个系统,这个系统首先会把我们能直接看到的信息(比如今天是晴天)转化为一种更容易处理的形式(就像把天气状况翻译成计算机能理解的语言,这由编码器 Enc 完成)。


然后,这个系统会尝试预测未来的情景,也就是明天的天气(s(t+1)),它在做这个预测时会考虑到现在的情况、过去的天气模式、你的行动计划,以及那些不可预知的因素(比如那场可能的风暴)。


训练这样的模型,就像是让一个人不断学习根据今天的天气、昨天的记忆、明天的计划,以及偶尔出现的意外情况(比如朋友提到的风暴预报),来准确猜明天天气的过程。


目标是让这个人(模型)变得越来越擅长做这种预测,但有个难点是,真实世界充满了不可预知性,而我们却在努力使模型去补全每一个未知,希望它能构建出一个完整无缺的未来图景。


这就像是要一个人不仅猜测明天的天气,还要准确推测出每一朵云的形状和位置。这样一来,模型有时就会犯一些人类本能上不会犯的失误。


因为它太过于追求细节的完美匹配,可能会过分纠缠于那些实际上对大局无关紧要的细微末节,反而忽略了更高层次、更宽泛的规律和趋势,这些才是通常帮助我们把握预测方向的关键所在。


而像自回归生成模型(如 LLMs)则是被简化过后的特例,它们几乎都是直接用今天的天气来预测明天的,同时参考过去几天的天气模式,没有特别考虑外部行动或难以捉摸的变量,虽然不会存在崩溃问题,但这样的预测也注定不够精确。


之前,LeCun 的团队已经在“世界模型”的研究中取得了一些成果。成功实现了在自监督下学习现成图像表征。

图丨相关论文(来源: arXiv


LeCun 表示,“我们正处于下一代人工智能系统的风口浪尖。”


虽然 OpenAI 的 CEO 奥特曼认为 GPT-4o 在通向 AGI(通用人工智能)的路上迈出了关键一步, Meta 的全球事务主管 Nick Clegg 也表示他们最新的大语言模型 Llama 3 “极大地提高了推理等能力”。


但 LeCun 则觉得,它们的这种演变是肤浅且有限的,它们依赖于人类工程师的介入和特定信息的训练,而非像人类那样自发地得出结论。


“大多数人可能会认为这是在进行推理,但实际上,这种表现大多是在利用从大量训练数据中积累的知识。” LeCun 如是说。


但他也补充道,尽管存在这些局限性,大型语言模型仍然依然有实用价值。


Meta 的 Llama 3 这一项目就主要是专注于那些有他们已有清晰目标的领域,而 Fair 实验室的重点则是追求人类水平的人工智能这一长远目标。


LeCun 表示, 实现通用人工智能(AGI)并非一个产品设计问题,甚至不单纯是一个技术开发难题,而首先是一个科学问题。


由于充满不确定性与探索空间,无法预知哪条路径真正有效,Fair 目前正在尝试多种思路,希望使 AI 能达到人类智能。


例如, LeCun 的团队借鉴儿童学习模式,即通过观察周围环境的自然变化使 AI 进行学习。他们向 AI 系统输入长时间的视频资料,并刻意移除某些帧,借此挑战 AI 预测缺失片段的能力。


同时,Fair 目前也在研发一种“通用文本编码系统”,旨在使系统能够处理文本信息中的抽象知识概念,并能将此知识迁移到视频和音频内容的理解与处理中,为 AI 的跨模态学习与应用开辟新径。


针对 LeCun 的这一宏伟构想,学界内也不乏质疑之声。







请到「今天看啥」查看全文