专栏名称: 人机与认知实验室
北京邮电大学人机交互与认知工程实验室 联系方式:[email protected]
目录
相关文章推荐
51好读  ›  专栏  ›  人机与认知实验室

大模型能像人类一样进行抽象推理么?

人机与认知实验室  · 公众号  ·  · 2025-04-06 00:00

正文

请到「今天看啥」查看全文


大模型在一定程度上能够进行抽象推理,但与人类相比仍存在显著差异,以下是具体分析:

一、大模型具备抽象推理能力的体现

大模型是通过提示方法激发抽象推理的,“退一步”的提示方法可引导大模型先从具体细节中抽象出高层次概念和原则,再进行推理。如在物理、化学等领域的复杂任务中,使用该方法后,PaLM-2L等大模型的性能有显著提升,这表明大模型能够通过上下文学习掌握抽象技能,并基于高层次概念和原则进行推理,从而减少中间步骤中推理失败的机会。

在特定任务中,大模型表现出抽象推理潜力,在一些需要类人推理能力的任务中,如“思维链”提示技术引导下的推理任务,大模型能够展现出一定的抽象推理能力。这种技术让模型在测试时生成逐步的推理过程,无需额外训练即可提高其推理准确性,推动了更高级的提示技术发展,如“思维树”等。

多模态大模型将语言与视觉、语音、视频、3D信息等打通,在抽象推理任务中呈现新的维度。如模型不仅能根据文本提示生成对网格的理解,还能反过来以语言向人类解释它认定的变换操作,若其确实拥有足够的抽象能力,就能在语言层面对变换做明晰阐述,如“对所有独立连通块执行中轴对称”,使外界更易判断其“理解”还是“猜谜”。

二、大模型抽象推理与人类的差异

就推理过程的稳定性与可靠性而言,尽管大模型在一些任务中表现出抽象推理能力,但其推理过程并不总是稳定和可靠,在MM-IQ基准测试中,即使是性能最好的多模态模型,其准确率也仅为27.49%,远低于人类的平均准确率51.27%。这表明大模型在抽象推理任务上还存在较大不足,尤其是在面对复杂抽象规则时,容易犯错。

大模型的抽象推理能力往往依赖于海量数据训练和庞大的算力支持。它们通过大规模文本语料库进行预训练,学习语言模式和知识,这种基于统计的学习方式使得模型在面对新情境时,可能无法像人类一样迅速理解并应用新概念,而是需要大量的数据和计算资源来进行推理和判断。

人类的抽象推理不仅基于已有的知识和经验,还能够通过创造性思维生成新的概念和解决方案。而大模型更多是基于已有的数据和模式进行推理,缺乏真正的创造性和对概念的深入理解。例如,在面对一些需要创新性思维的抽象问题时,大模型可能难以像人类一样提出全新的观点和解决方案。

人类在抽象推理中能够将已有的概念和规则应用到各种不同的场景和问题中,具有较强的泛化能力。然而,大模型在面对稍作变形的题目或新的任务背景时,往往需要重新进行大量的训练和调整,其泛化能力相对较弱。例如,在ARC测试中,当题目背景或形状载体发生变化时,模型的性能可能会大幅下降。


三、大模型的“快与慢思考”与人类不同


1、人类的“快与慢思考”


(1)快思考是 基于直觉、经验和潜意识的快速反应,是一种自动化、无意识的思维过程,看到一个熟悉的面孔时能迅速认出是谁,或者在紧急情况下本能地躲避危险。这种思考方式速度快、效率高,但有时也可能导致错误判断,因为它是基于过去的经验和模式匹配,缺乏深入分析。


(2)慢思考是一种有意识、逻辑性强的深度思考过程,需要集中注意力和理性分析,解决复杂的数学问题、制定长期计划等。慢思考虽然耗时较长,但能够更全面、准确地分析问题,做出更合理的决策。


2、大模型的“快与慢思考”


大模型的“快思考”主要依赖于其预训练过程中学到的模式和知识,在面对简单、常见的问题时,能够迅速生成答案。这种快速反应是基于大量的数据和高效的计算能力,类似于人类的直觉反应,回答一些简单的事实性问题,如“巴黎是哪个国家的首都”,大模型可以快速检索其知识库并给出答案。


大模型的“慢思考”则体现在面对复杂问题时,需要通过多步推理、联想和验证来生成答案。它会根据问题的复杂程度和上下文信息,调用不同的算法和策略,逐步深入分析问题。例如,在解决逻辑推理题或需要多轮对话的场景中,大模型会不断调整和优化其回答,直到找到最合理的解决方案。


人类的“快与慢思考”是基于生物神经网络和意识的复杂交互,受到情感、经验和环境等多种因素的影响。而大模型的“快与慢思考”是基于人工神经网络和算法的计算过程,主要依赖于数据和计算资源,没有情感和意识的参与。 人类的知识来源于个人经验、学习和与他人的交流,具有独特性和主观性。大模型的知识则来源于大规模的文本数据,是通过对这些数据的统计和模式学习而获得的,具有客观性和广泛性,但也可能存在数据偏差和局限性。 人类的慢思考能够进行深度的抽象和创造性思考,能够从不同的角度和层面分析问题,提出创新性的解决方案。大模型虽然在一定程度上能够进行推理和联想,但其推理深度和创造性相对有限,更多是基于已有的知识和模式进行推断。 人类能够根据不同的情况和环境灵活调整自己的思考方式和策略,具有很强的适应性。大模型的思考方式相对固定,主要依赖于其预训练的模型结构和算法,对于一些超出其训练范围的新问题或特殊情况,可能难以有效应对。


四、大模型的图式、同化、顺应、平衡与人类不同


人类同化是将新信息整合到已有的认知框架中,而顺应是对认知框架本身的调整。人类在学习新技能时,通常先用已有的知识去理解(同化),如果现有框架无法解释新信息,则会调整认知结构(顺应)。这种动态调整是人类智能的核心。人类的平衡是通过同化和顺应的交替作用实现的动态过程。人类的认知发展从一个平衡状态过渡到另一个平衡状态,伴随着认知冲突和自我调节。图式是基于经验、知识和情境的认知框架,具有高度的灵活性和主观性。例如,医生在诊断时会根据经验快速形成诊断框架(图式),并结合情感和直觉进行调整。


大模型的同化可以理解为模型对已有数据的拟合,而顺应则是通过调整超参数或优化算法来适应新数据。大模型的同化和顺应更多依赖于算法和数据,而非灵活的认知调整。大模型的平衡更多依赖于算法优化和数据处理的动态调节。例如,在自动驾驶中,车辆需要实时处理传感器数据(同化),同时根据路况调整驾驶策略(顺应),这种平衡更多是通过技术手段实现的。大模型的图式依赖于算法和模型,强调精确性和效能。深度学习模型通过训练形成对数据的抽象表示,这种图式能够高效处理大规模数据,但缺乏人类的灵活性和创造力。

大模型的图式、同化、顺应、平衡与人类存在显著差异。人类的认知过程更加灵活和动态,依赖于情感、直觉和创造力,而大模型则依赖于算法和数据,强调精确性和效率。这种差异既是人机协同的优势,也是挑战,如何让人类的灵活性与机器的精确性形成互补,是未来智能系统设计的关键。


五、与人类相比,大模型只有“计算”功能,还没有与真实世界交互的“算计”能力


人类能够通过多种感官(视觉、听觉、触觉等)感知世界,并结合经验、情感和直觉进行深度认知。例如,人类在观察一个场景时,不仅能识别物体,还能理解其背景、意义和潜在的因果关系。 大模型主要依赖于视觉和语言输入,虽然能够通过多模态技术处理文本、图像等信息,但其感知能力相对有限,大模型可以识别图像中的物体,但在理解其背景和因果关系方面仍有不足。


人类在与世界交互时,能够实时感知环境变化,并灵活调整策略。 大模型的交互能力虽然在不断进步,但在面对复杂、动态的环境时,其适应性仍有限。 人类能够基于因果关系进行推理,并在不确定性中做出决策,医生在诊断时会综合考虑病史、症状和检查结果,做出合理的治疗方案。 大模型在因果推理方面的能力较弱,更多依赖于数据模式和统计关联。 人类在与世界交互时,会受到情感和直觉的影响,在面对危险时,人类会本能地做出反应。 大模型缺乏情感和直觉,其行为完全基于算法和数据。虽然一些多模态模型能够模拟情感表达,但这些表达是基于数据训练的结果,而非真实的情感。


人类的“算计”能力不仅包括计算,还涉及策略规划、风险评估和长期目标的设定,企业家在制定商业计划时,会综合考虑市场、竞争对手和未来趋势。 大模型的“算计”能力主要体现在计算和优化上,缺乏对复杂现实世界的深度理解和策略规划。例如,世界模型虽然能够预测环境的未来状态,但其预测能力仍然局限于数据和算法的限制。


大模型在感知、动态交互、因果推理、情感和算计能力等方面与人类存在显著差异。人类的交互能力更加灵活和深度,而大模型更多依赖于数据和算法。未来,随着技术的进步,大模型在这些方面的表现可能会逐步提升,但要完全达到人类的水平,仍需克服许多挑战,需要数学、物理、…甚至整个科学技术的颠覆性突破。



购书链接:https://item.m.jd.com/product/10147059904062.html?utm_campaign=t_1001328990













请到「今天看啥」查看全文