专栏名称: 哲学园
哲学是爱智慧, 爱智慧乃是对心灵的驯化。 这里是理念的在场、诗意的栖居地。 关注哲学园,认识你自己。
目录
相关文章推荐
慧田哲学  ·  为什么在欧美没有长年卧病在床的老人? ·  昨天  
慧田哲学  ·  邓晓芒:什么是自由? ·  2 天前  
哲学园  ·  冯克利 | ... ·  2 天前  
哲学王  ·  公元1984年,我很怀念它 ·  3 天前  
51好读  ›  专栏  ›  哲学园

从“半截维特根斯坦”到完整的人:AI 时代文科教育的使命

哲学园  · 公众号  · 哲学  · 2025-03-10 07:40

正文

朱晓阳

云南民族大学社会学学院、北京大学社会学系

【导读】 3月6日, 科技圈度过了 “DeepSeek之后,又一个不眠之夜”: Manu s, 一个中国团队的产品 ,再次被 全球的AI从业者刷屏。 作为全球首款通用 AI Agent,它能够独立思考、规划并执行复杂任务,直接交付完整成果。而 阿里通义千问推理模型QwQ-32B宣布开源,登顶HuggingFace大模型榜单。

但在赞叹技术进步之余,当我们说AI能够“思考”的时候,它与人的思考是同一个意思吗? 当AI输出越来越活灵活现的拟人口吻的文字时,它与真人又有何区别?要回答这些问题,牵涉到语音、意识、智能、心灵等哲学范畴。 与蒸汽、电力等其他改变人类社会的技术不同,人工智能是一门滥觞于哲学思辨之中的技术。当下主流的大模型技术路线,就有许多计算机科学家称 其是继承了维特根斯坦的哲学思想。这种说法有其道理, 但计算机界对语言的理解在技术性地继承了家族相似、 语言游戏等思想的同时,抛弃 维特根斯坦关于人的亲知、生活形式和人的动物性行动作为自然语言的根基的思想。 以这种“半截维特根斯坦”式预设开发的人工智能,表面上模仿人的语言和心智,实际上只能与人越来越远。事实上,在许多人惊呼各行各业被AI取代的今天,这个被技术专家所抛弃的“根基”,正是 AI时代的教育和研究最需要保守和培育的

本文为文化纵横新媒体特约稿件 仅代表作者观点,供读者参考。


文化纵横新媒体·社会观察

2025年第11期  总第231期

在AI时代,回到人类学“根基”教育和研究

在等待花开的日子,一边看美国股市被deepseek搅局,一边看去年诺贝尔物理奖得主辛顿 (Hinton) 在的演讲《数字智能会取代生物智能吗?》 。 辛顿被称为AI的教父,现在引领人工智能的大模型就是受到他的思路影响的。 辛顿自己受到美国语言哲学家丹尼特的影响,丹尼特则是牛津哲学家赖尔的弟子。赖尔以行为主义进路著名,这影响到丹尼特的唯物主义的心智的路线,从而也影响到辛顿的神经网络模拟进路。 赖尔可是维特根斯坦的弟子之一。通过赖尔以降的这条路径,将人的意识和语言等都变成了物质过程。 其中如丹尼特称“语言进化以适应大脑,然后大脑进化以适应语言,这是一个共同进化的过程”。英国的阿尼尔・塞思 (Anil Seth) 提出生物自然主义,也主张人的意识与人脑这个生物分不开,从而对无生物硬件的AI是否能有意识做了否定,并提出未来即使有可能产生能有意识的人工智能,应该是朝向建立有生物体的东西。

现在有不少AI专家动辄以维特根斯坦的“家族相似”、“语言游戏”等概念为行话。 前些日子一位自杀的Deep Mind的研究科学家Felix Hill甚至说维特根斯坦和某某,某某可以共同设计出transformer 。 从大语言模型的基础是自然语言处理,而后者是以词向量作为语言预测核心而言,维特根斯坦确实够得上是当代人工智能的鼻祖。因为这种词向量为核心的自然语言处理与后期维特根斯坦的 “综观”和“中间链接”之说 是一致的。 但AI专家们对维特根斯坦关于人的语言游戏底下有人的亲知、生活形式和人的动物性行动等少有理解。 虽然丹尼特对辛顿有很大影响,但丹尼特将语言归结为人脑这种生物体和文化的立场是很清楚的。他讲过一个有关与狮子对话的思想实验:“维特根斯坦“曾有过著名的论述:‘如果狮子可以讲话,我们会无法理解他。’但是错了!如果狮子可以讲话,我们会很好地理解他。只是那对我们理解狮子毫无帮助。” “因为这样一来他就不再是头狮子了,” 可见丹尼特认为人脑和语言与当下的AI还是有距离的。辛顿的“凡人计算 (Mortal Computation) ”即使能装进硬盘,估计在当今的条件下,也不会超过能与人对话的狮子。

辛顿认为人类智能的本质不是逻辑推理,而是“学习 (learning) ”,并认为人工智能的学习与人类是一样的。辛顿并不认可人工智能的学习仅仅是统计分布和大数据基础上的“随机鹦鹉”。 辛顿批评乔姆斯基,认为将智能视为逻辑推理的人不了解人工智能的能力,也不理解人工智能的真正威胁。辛顿的批评貌似如同当今的语言现象学,看出命题逻辑和推理并非哲学本质,从而也并非智能的本质,但是辛顿不认为类比、相似、关联等与人工智能“学习”接近的人类认识形式背后同样有人的生活形式或亲知。这是与人工智能的“学习”不同的。因此辛顿的“人类智能本质”与语言现象学的预设仅仅在表面上相似,在根本问题上却不一样。

按照辛顿的说法,人工智能会有主观经验,并且能用语言表达。 例如你给机械臂装上摄像头,然后再给它的镜头前装一个棱镜,在镜头前面有一把铁锹在飞舞,然后它看到铁锹,它说:“铁锹飞在我的右边”。人指出:铁锹在你前面,但我给你的镜头前放了一个棱镜。机器人说:我看到物体就在我前面,但我有一个主观体验,觉得它在旁边。这表达了一种主观体验,并使用语言表达出来。这跟人的语言表达没有什么差别。

在我看来,这种说法有些像是将著名的思想实验“假如成为蝙蝠会如何”反过来的一种想法。 人的语言是可以被借用的,就像鹦鹉借用人的语言一样。 机器可以用代替人眼的摄像机“看”,可以借用人的语言描述看见什么,但是它说“一只铁锹在我的右边飞舞”的时候,它的眼睛是机器的镜头,它的感受(如果它有感受)会和我们一样吗?我们不可能知道,我们不过是用人的感受去假设它的感受。 这种说法有些像丹尼特那个狮子说话故事的前半部分,即维特根斯坦讲的部分。丹尼特过后补充其后半部分时说:“他与普通狮子的差异如此之大,以至于他无法告诉我们做一头狮子是什么样的体验。我认为我们应该习惯这样一个事实:我们在日常生活中熟悉的人类概念只能被部分地应用到动物身上。”

虽然我们和机器貌似有共同对话语言,但机器的语言甚至是与机械的硬盘分离的,是一套算法。更准确一些说, 大语言模型是将人类语言以token为单位(经常等于词)进行下一个词的预测,或曰“词汇接龙”。其基础是按照日常语言使用时词的出现距离,按概率派给其“词向量”。 所谓transformer也是以词向量为基础。多头注意力 (Multi-Head Attention) 则是在基础的语词猜测上,再有进一步的重点提取等等。 AI的自然语言处理可能会将“这是一只手”按照“这-是-一只-手”分解成词向量为基础的算法处理,词向量就是AI的“深层语法”。

实际上,维特根斯坦会认为这个经验命题已经到确定的“终点”,再无“理由”在底下。 维特根斯坦在去世之前一年多的笔记 《论确定性》 中说:“给出理由,为语言游戏辩护,都是有一个终点的。——不过这个终点并不是某些命题直接让我们将它们视为是真的,因此位于语言游戏的根基处的并不是我们的一种看,而是我们的行动。” “在正常情境中,‘我有两只手’这一点与我能为其给出的证据一样确定。这就是我为什么不能将‘看我的手’当作它的证据的原因。”维特根斯坦认为,这种生活形式或动物性实践是语言游戏和常识性真理的根基。按他的说法,这种描述世界图景的常识命题是“神话性的”,或者说有一种神秘主义。而人的这种常识性根基,无论如何也不是AI大模型那种“自然语言”的词向量基础。 因此,AI科学家们声称学维特根斯坦,我觉得学的其实是半截维特根斯坦:只看见维特根斯坦对心理主义的怀疑,对因果逻辑的批评,但这只是前半截,因为维特根斯坦还认为,语言游戏的背后是生活形式,是人的动物性的行动,这一点没有被继承。 一个人说:我手摸到泥土,是湿的。 这是我这样一只手,这样一个人的器官的手在摸泥土。 这是人工智能没法感受到的,这种亲知是人才有的。这就是 语言游戏底下的动物性根基。

辛顿则认为人并没有一个所谓的“内心剧场”,所以人工智能用它的感官,如摄像机看,机械臂感触到世界,也可以借用人的语言说出感受。 但是它和我们人的亲知不一样。在这一点上,我觉得它永远也不可能取代了人。但是它可以力量很强大,这毫无疑问,就像原子弹可以没有这种亲知感觉,但是它可以把人给炸死。 因此辛顿感到很可怕。他坚决反对大模型开源,因为这就像在超市里能买到原子弹一样

作为 旗帜鲜明的物理主义者, 丹尼特认为在心灵和语言之间 没有什么神秘的 的关系,因此 语言是人工智能可以掌握的,随着它的进化可以出现智能,这只是资金的问题。这一点辛顿接过去了。但是丹尼特也说人还有内心,还有表征,这些不等于辛顿意义上的语言。如果用维特根斯坦的话来说的话,这个内心的表征(维特根斯坦称为世界图景)是和语言分不开的。这个世界图景的背后是 人之为人所具有的 各异的生活形式、行动或动物性的实践。 辛顿等人以这种半截维特根斯坦式预设开发的人工智能,是走上一条模仿语言和心智,实际上背离人的路线,与人越来越远。

当下也有坚持认为AI现有路线不能产生有“意识”的人,例如阿尼尔・塞思。他说:“我们应认真考虑意识可能依赖于我们作为生物体的本性这一可能性。“这种观点被称为人工智能的生物自然主义。辛顿虽然也提出 被认为类似生物自然主义的凡人计算 ,即 软件无法脱离物理载体 / 硬件而存在 ,但到目前为止AI仍然是他所谓的“永生计算”,计算软件与硬件分离。

人工智能时代需要“根基”教育

虽然transformer是一种“神经网络”架构,但实际上与人脑处理语言和图像的意识过程关系不大。例如人在写作之时,创意状态下的语言获得往往是来自一种类似现象学还原的状态。Deepseek推出之初曾宣扬这个AI也会有“顿悟时刻”, 但Deepseek本质上仍然是与ChatGPT一样的神经网络模式,只是蒸馏更有效,更概括,成本更低。其宣扬的顿悟时刻,也不可能是人脑的顿悟时刻。Deepseek生成的文本给人更“锐利”的感觉,实际上是可能与Deepseek的“更有效”蒸馏有关,将老师模型中的好词好句更有效地提取。 这确实有效,但在快速获得老师文本关键话语的时候,却可能失去精读文本能获得的全面信息。

人工智能在模拟人类语言和“主观经验”方面都取得惊人进步 ,在进行文献资料梳理、论文写作方面已经显示出能够替代人的能力,并有可能在不远的未来作替代“命题对应事实式”的社会科学方法及相应写作。 可以预想,未来的社会科学研究和教育将更注重人与人面对面对话(类如戏剧演示),更强调以浸入生活世界的方式(如实地测度 [mapping] )和以一手田野资料演示研究者想法。这些方法的不可替代是因为它们是以人的生活形式和行动为根基的看世界方式。 如果要扯上维特根斯坦的话,这些方法与他后期所称的“综观/一目了然表达”有关。它们是以人的生活形式为根基的综观,而不是AI大模型模仿的上半截维特根斯坦。

在这一点上,我所从事的人类学和维特根斯坦沿着各自的路径相通了。分析哲学史专家 汉斯-约拿·格洛克 (Hans-Johann Glock) 注意到, 维特根斯坦后期有一种哲学人类学转向:“也许部分地作为阅读斯宾格勒 (Spengler) 和与马克思主义经济学家皮耶罗·斯拉法 (Pierro Sraffa) 的讨论的结果,维特根斯坦采纳了一种更‘人类学的’视角。因此,语言不再被看作是一个自给自足的抽象系统,而是人类实践的一部分,生活形式的一部分。”人类学的教育是要将这个根基植入学生的心中。为此,这个学科的一整套阅读、讨论、对话、田野调查、写作、直至演示呈现,就是要将这个根基变成人类学学人的习性或背景,将这个根基告诉世人。

现在应当大声说:在AI时代的人的教育和研究正是要在“根基”上着力。艺术或美育对于植入根基至关重要,但它并不是指那种以“拽大词”、寻找经典名著的好词好句,主题思想概括或知识点提取为主的艺术欣赏课。 目前,艺术或美育课程在小学、中学和大学中虽然已经成为学科建制的一部分,实际上都是将根基教育的“根基”挖去的知识点培训。 例如“劳技课”本是让学生动手做东西,但经常变成课堂上的“选择题”考试;大学的艺术欣赏课基本上是由一些拽大词的评论占主流;而写作课则常常是教一些写作的固定“配方”。这样的文科教育已经有久远历史,如果没有遭遇上AI这种凶猛的“大词家”,应当还能活上无尽的岁月。今天的问题是这类教育已经被AI完美地替代。所谓文科危机很大程度是因此而发。 这种文科危机与“根基”教育并无干系,相反凸显了根基的无可替代。今天亟需的正是建立根基教育。






请到「今天看啥」查看全文