【导读】
ChatGPT的爆火,点燃了人们对通用人工智能的热情。在全世界对GPT-4翘首以盼时,马库斯却做出7大预测,给大家泼了盆冷水。性能提升却不能理解世界,大型语言模型会是AGI的未来吗?
2022年接近尾声之际,OpenAI发布了名为ChatGPT的聊天机器人,迅速走红网络。
发布后不到两周,已有超过一百万人注册在线试用。用户只要输入文本,就能立即得到一段段的不可思议的文章、故事和诗歌。
它的文笔很好,以至于有些人用它在Tinder上写约会的开场白(「你介意我坐这里吗?你做臀冲的样子让我的腿有点发软。」)
不仅如此,令世界各地的教育工作者相当震惊的是,学生们开始使用ChatGPT来撰写学期论文。还有一些人正在使用它来尝试重塑搜索引擎。一时之间,全世界都在讨论ChatGPT的神奇。
尽管如此,马库斯表示,我们不能对聊天机器人滤镜太厚。
虽然ChatGPT看起来无所不知,但它也很容易出错。在接受采访时,马库斯表示,ChatGPT和之前一样,相关系统「仍然不可靠,仍然不了解现实世界,仍然不了解心理世界并且仍然充满错误。」
也就是说,ChatGPT时常胡编乱造;它所说的相当一部分根本不是真的。
例如,在用户的诱导下,ChatGPT可以说出油条非常适合手术,因为「它们体积小巧,可以在手术过程中实现更高的精确度和控制,降低并发症的风险并改善手术的整体结果」 。
聊天机器人一本正经地说胡话,以至于著名的网站Stack Overflow已经暂时禁止计算机生成的回答。
而错误是无穷无尽的。虽然ChatGPT经常根据用户反馈进行调整,但在产品发布几周后,仍有很多网友对它的回答感到无语:
类似的错误频频发生,连OpenAI的首席执行官Sam Altman也不得不承认现实:
ChatGPT仍有诸多局限,但足以创造出伟大的假象。
现在靠ChatGPT去完成重要任务还为时尚早。关于提高鲁棒性和真实性,我们要做的还有很多。
简而言之,ChatGPT虽然听起来像是星际迷航中的计算机一样科幻,但目前,人们还不能完全信任它。
当然,ChatGPT是2022年AI爱好者的礼物。那么2023年呢?
2023年,硅谷乃至整个世界翘首以盼的,是GPT-4。
实际尝试过GPT-4的人都对该产品印象深刻。根据一些传言,GPT-4将于2023年春天发布。届时,它将使ChatGPT 黯然失色;可以肯定的是,会有更多人谈论它。
在许多方面,人们对GPT-4的期望值非常高:
风投公司DVC创始人Nick Davidov表示:GPT-4的出现,会带来「和新冠疫情类似的经济冲击」。GPT-4的快速传播和使用,可以「迅速提高数亿知识工作者的生产力」。
从技术上讲,GPT-4内部将会有更多的参数,更多的处理器和内存,并接受更多数据的训练。
GPT-1接受了4.6GB数据的训练,而到了GPT-3,数据量直接飙升至750GB。由此可见,GPT-4的训练量会更加惊人,甚至会对整个互联网的大部分进行学习。
OpenAI深知,更大的训练量意味着更好的输出。经过每次迭代,GPT的表现变得越来越像人类。对于GPT-4,可能会进化成为一个性能怪物。
但它会解决之前遇到的问题吗?马库斯对此仍然打了个问号。
尽管GPT-4看起来肯定会比它的前任更聪明,但其内部架构仍然存在问题。
马库斯称,他怀疑人们在GPT-4时,会有一种似曾相识的感觉:先是火遍全网,然后过了几天,人们发现许多问题仍然存在。
根据当前信息,GPT-4在架构上与GPT-3基本相同。如果是这样,可以预料到,一些基本问题仍然无法解决:聊天机器人依然缺乏了解世界运作方式的内部模型。
因此,GPT-4无法在抽象层面上理解事物。它可能更擅长帮学生写论文,但它仍然不会真正了解世界,答案的字里行间仍会透露机器的特征。
因此,尽管AI界对GPT-4的到来满心欢喜,马库斯却给出了7个不太积极的预测。
1. GPT-4仍然会像它的前辈一样,犯下各种愚蠢的错误。
它有时可能会很好地完成给定的任务,有时却罢工不干,但你并不能提前预料到即将出现的是哪种情况。
2. GPT-4对物理、心理和数学方面的推理依然靠不住。
它或许能够解决部分之前未能挑战成功的项目,但在面对更长和更复杂的场景时依然束手无策。
比如,当被问及医学问题时,它要么拒绝回答,要么偶尔会说出听起来很有道理但很危险的废话。尽管它已经吞噬了互联网上的大量内容,但它并不能足够可信和完整地提供可靠的医疗建议。