专栏名称: 人机与认知实验室
北京邮电大学人机交互与认知工程实验室 联系方式:[email protected]
目录
相关文章推荐
51好读  ›  专栏  ›  人机与认知实验室

GPT与Deepseek等数据驱动AI的缺点

人机与认知实验室  · 公众号  ·  · 2025-02-03 00:00

正文

当前数据驱动的AI(包括GPT与Deepseek等各种大小模型)只进行了数/物理性的初步探索,尚未触及人机环境生态系统的复杂性。也就是说,当前的数据驱动型 AI,虽然在处理大量数据、解决特定任务方面取得了显著进展,但它依然面临着许多局限,尤其是在适应复杂的人机环境生态系统方面。

一、目前的数据驱动 AI的局限


目前的 AI 系统通常依赖于海量的数据训练,但这些数据往往缺乏对环境、情境和社会文化的深度理解。比如,AI 在自然语言处理和对话生成方面有了很大的突破,但它们对于情感、文化背景、非语言交流的理解还是很有限的。

大多数 AI 系统擅长于执行单一的、明确的任务(例如推荐系统、图像识别等),但它们在处理多任务和综合问题时表现较差。人类的思维可以在多个任务和领域之间迅速切换,并且考虑到相互之间的复杂性和影响,但目前的 AI 很难做到这一点。

许多 AI 模型的设计仍然集中在局部优化——即通过最大化某个目标(如准确率、效能等)来取得最好结果。然而,在一个复杂的、动态的生态系统中,过度关注局部优化可能导致系统其他部分的平衡失调,进而产生不可预期的后果。如推荐算法只关心提升某一项目标(点击率等),可能导致信息的偏向性和反馈回路。


数据驱动的 AI 的确存在“机器幻觉”(或叫做“幻觉”)这一局限性。这个现象通常表现为 AI 给出的答案或预测是错误的,但它本身并不知道这些错误是如何产生的,也不容易察觉到问题。它可能会生成看似合理的回答或结果,但这些答案可能完全偏离事实,或在某些情况下基于不准确或不完整的数据,其复杂性更在于AI 无法像人类一样拥有“常识”和“判断力”,它只能基于数据做出推断,因此某些错误可能直到产生不良后果时才被察觉。


尽管 AI 在自动化和任务分配方面逐渐得到应用,但人机协作的复杂性仍然是一个未解的难题。我们如何设计AI系统使其更好地理解人类的需求、情感、意图,以及如何与人类有效合作(而不仅仅是替代)仍然是一个挑战。人类和机器的互动是一个非常复杂的过程,涉及信任、意图对齐、动态适应等层面。

二、人机环境生态系统的复杂性


人机环境的生态系统不仅仅是由机器和数据构成的,它还包含了人与环境、社会、文化、伦理等多维因素。这种复杂的系统涉及:1)动态交互与反馈。人机交互的过程是动态变化的,涉及到机器对环境变化的适应,以及人类在使用技术过程中反馈给机器的调整。AI 在这些动态互动中必须具备高度的适应性和灵活性,才能真正融入到复杂的生态系统中。2)伦理与价值观。不同的社会和文化背景下,关于AI的价值观、道德标准、使用场景等都有不同的理解。在全球化和多元化的社会中,AI需要在不同的文化语境下“学习”并进行相应的调整,才能满足多元的需求。3)环境和资源限制。人机环境生态系统还包括了自然资源、能源、生态保护等方面。在设计 AI 系统时,需要考虑如何在有限的资源和环境压力下,优化其运行效率并减少负面影响。







请到「今天看啥」查看全文