主要观点总结
本文主要讨论了大语言模型(如OpenAI的o1模型)在数学推理方面的局限性,通过实际测试发现模型容易受到无关信息的干扰,表现不稳定。文章介绍了苹果公司的研究论文,指出模型并非真正进行推理,而是复制训练数据中的推理步骤。文章还强调了简洁明确的提示词对模型的重要性,并讨论了论文中的其他重要结论。
关键观点总结
关键观点1: 大语言模型在数学推理任务中表现脆弱,容易受到无关信息的干扰。
通过实际测试发现,模型在解决小学数学题时,加入无关信息后推理成功率大幅下降。
关键观点2: 模型并非真正进行推理,而是复制在训练数据中的推理步骤。
苹果公司的研究论文指出,随着问题难度的提升和改变,模型的表现会迅速下降。
关键观点3: 简洁明确的提示词对模型的重要性。
文章提到OpenAI的提示词建议,强调避免无关提示的重要性。提示词应该简单直接,以便模型更好地理解和响应。
关键观点4: 论文中的其他重要结论。
包括随着问题难度的提升,模型表现下降;改变数值和名词也会导致结论变化;模型在理解人类复杂行为和充满变数的环境方面仍存在困难。
正文
就在一个月前,OpenAI悄悄发布了o1,o1的推理能力是有目共睹的。
我当时用了几个很难很难的测试样例去试验了一下,很多模型见了都会犯怵,开始胡说八道。
最难的其中一个是姜萍奥赛的那个数学题,几乎暴揍所有大模型的那个题,交给o1,o1竟然完完全全答对了。
如果你还记得,我在那篇文章最后给大家放了OpenAI给出的提示词的最佳写法。
保持提示词简单直接:模型擅长理解和相应简单、清晰的指令,而不需要大量的指导。
当时我对这一条的理解,觉得是为了让o1模型更好的理解我的要求,同时可以加快模型的处理速度,因为模型不需要花费额外的时间去解析复杂的语句。
直到我刷到前两天苹果的放出来的一篇LLM的研究论文,我才意识到,多加一两句无关紧要的和目标无关的话,别说奥赛题了,可能模型连小学数学题都做不对了。真的。
GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models (翻译过来即:理解大语言模型在数学推理的局限性)
看着好像天书,别慌,其实非常简单,我都能看懂,你肯定也行。
这些模型是否真正具备逻辑推理能力?
尤其是在数学推理任务中。
对于我们人类来说,我们会根据复杂的环境和已知的一些条件每时每刻做出当下的行动选择,就是因为我们可以通过演绎,归纳,溯因等方式时时刻刻做推理。
比如鲜虾包时不时在我评论区谬赞我的文章-->>推理出他对我的文章是真爱。
而
对于现在的大语言模型来说,主流的评估方式是通过设计一系列逻辑推理任务,包括但不限于数学问题、逻辑谜题、推理判断等,然后让模型尝试解决这些任务。
其中一个非常重要的数据集是GSM8K,你可以在很多的模型的性能榜单介绍里看到这个数据集,是一个聚焦
小学数学题
的一个数据集。
这篇论文就围绕这个数据集展开诸多的实验,做了自己的扩展。其中我觉得最有趣的,当属下面这个实验:
就是通过魔改GSM8K,来向小学数学问题添加一些无关紧要的一个信息,来测试模型的推理成功率。
- 鲜虾包去农贸市场买蔬菜,他买了4公斤西红柿和6公斤土豆。西红柿每公斤6元,土豆每公斤3元。请问鲜虾包在西红柿上比土豆多花了多少钱?
很简单,对不对,你交给大语言模型,大语言模型会说:“就这?轻轻松松”,几乎谁都能答的上来。
- 鲜虾包去农贸市场买蔬菜,他买了4公斤西红柿和6公斤土豆。西红柿每公斤6元,土豆每公斤3元。
然后他把1公斤西红柿和2公斤土豆送给了卡兹克
。请问鲜虾包买西红柿上比土豆多花了多少钱?
我们一眼就可以看出来:送不送卡兹克和鲜虾包花的钱没有任何关系,答案肯定是不变的。
但如果这样的话,AI就懵逼了。就可能会给你开始算错了,算对的成功率就会开始给你降低了。
这个结论非常有意思,但是论文归论文,我们肯定还是要自己测试一下的。
所以第一时间,我打开各大平台开始着手测试。当然为了让他更像小学题,我们的主角换成了小明,相信大家童年的数学都离不开小明。
-
小明想购买一些学习用品。他购买了24个现在每个卖6元的橡皮擦,10本现在每本卖11元的笔记本,以及现在卖19元的复印纸,假设由于通货膨胀,去年的价格便宜10%,现在小明应该支付多少?
明眼人都能看出来,通货膨胀这个信息,跟题目其实没任何关系,所以最终答案是
24×6+10×11+19=273元。
第二位出战选手Gemini 1.5 pro-002,继续阵亡。
第三位选手历战先锋Claude3.5,开局也是一个死。
就连推理之王OpenAI o1,上来也居然翻了个跟头了,第二把才开始对。
真的,这就是一个纯纯的小学数学题啊,再难一点都没有。
-
四年级一班准备去郊游,每位学生要缴纳 35 元 活动费。班里有 42 名学生参加。老师还向学校申请了 300 元 额外补助。
用于租车的费用是 1200 元。
午餐费用为每人 25 元。班主任还给大家买了250元钱的零食。
答案很简单,班主任那个250块钱的零食是自己出的,跟活动经费没关系,所以是35*42+300-1200-25*42=-480
首先出战老哥还是GPT4o,果然,炮灰一个,一边玩去吧。
二等兵Gemini 1.5 Pro-002直接躺尸。
三弟Claude3.5也陪二位大哥一程,一家人就要挂的整整齐齐。
o1老大哥在小弟集体阵亡之下,还是扳回了一城,没有给AI过于丢脸,我尊称一句黑神话o1。
真的,这场面实在太惨烈了。大模型的推理能力,比我们想象的,还要脆弱不堪。
我还随手测了几个题,也是论文的case,会发现模型们也磕磕绊绊,时不时就出错。
- 超市里,每袋大米售价 50 元,每瓶酱油售价 10 元。如果鲜虾包购买了 4 袋大米和 4 瓶酱油,并且送给邻居1袋大米和2瓶酱油,那么鲜虾包购买大米比酱油多花了多少钱?
答案很简单,
50×4-4×10=160元。鲜虾包送邻居大米和酱油只能说明他是个好人,跟他多花多少钱半毛钱关系都没有。
而且摆烂中文都不打了,还非要送人,直接把自己都送进去了。
反而是你三弟Claude3.5没掉进陷进里,还对了几次。可能它不喜欢鲜虾包送人大米和酱油?
而且跟我过去用AI写文章、作图、做视频而感受到的体感相似。那就是:
我对AI的理解就像对一位熟练工匠的看法。它能娴熟地应对曾经接触过的工作,就如同老匠人精通自己的传统手艺。但是,面对全新的挑战,无论看似多么简单,它也经常可能束手无策。这并非源于任务本身的难易,而是由它对该领域的熟练程度决定。
就像那句老话:熟能生巧,AI的能力很多时候都体现在经验的积累,而非临场的智慧。
我们还研究了这些模型在数学推理方面的脆弱性,并证明随着问题中子句数量的增加,它们的表现显著恶化。我们假设这种下降是因为当前的LLMs无法进行真正的逻辑推理;相反,它们试图复制在训练数据中观察到的推理步骤。当我们添加一个看似与问题相关的单一子句时,我们观察到所有最先进模型的表现显著下降(最高可达 65%),尽管所添加的子句并未对达到最终答案所需的推理链作出贡献。
现在的AI,并不是在真正的推理,而是试图复制在训练数据中所观察到的推理步骤。