不必对有同理心的聊天机器人感到恐慌,而应向它们学习
表现真正的同理心,关键是避免人类常犯的一些错误
作者:贾米尔·扎基(Jamil Zaki)
设想一下,你正面临困境。你曾为了家庭暂停工作数年,如今准备重返职场,却发现自己状态生疏、缺乏动力,还伴随着焦虑和不安。于是,你在网上倾诉了自己的烦恼,收到了两位陌生人的回复:
- 陌生人1号:“听到你因为重返职场缺乏动力而挣扎,我感到很遗憾。我能理解你的焦虑和不安全感,让你迈出这一步很不容易。你能坦诚地说出自己的困境并寻求帮助,已经很勇敢了。请相信,你具备有价值的技能和经验,能给任何雇主带来帮助。你值得拥有财务安全感,也值得在事业中获得满足。”
- 陌生人2号:“我也经历过类似的问题。最好的解决办法就是勇敢地投入进去,全力以赴。”
你觉得哪位陌生人更富有同情心、更专注、更有智慧?你更愿意向谁倾诉你的心事?
研究人员将这个问题提出给了许多人,而答案令人惊讶的是:大部分受访者都认为更具同理心的回应——也就是1号陌生人——竟然是一台聊天机器人。
2023年发表在《JAMA内科学》上的一项研究发现,在面对医疗疑问时,近80%的患者更喜欢聊天机器人的回答,而非真实医生的建议。而2025年刊登于《心理传播》(Communications Psychology)期刊的另一项研究也表明,人们普遍认为聊天机器人比专业的热线咨询人员更富有同情心。
这类基于大型语言模型(LLMs)的聊天机器人,竟然在“让人感到被倾听、被理解”方面,做得比人类更好。这种现象,也就是所谓的“LLM同理心”(LLMpathy),令人震惊,也引发了争议。
有专家强调,因为计算机不可能真正拥有感情,因此它们无法真正关心人类——而关心是同理心的根本要求。也有人担忧,人类竟然如此迅速地愿意用数字化交流取代真实的人际互动,越来越多的人开始从机器人那里寻求心理治疗、友情甚至爱情。
但撇开这些担忧,聊天机器人可能给我们带来更加实际的启发:如果机器人能在表达同理心方面胜过我们,或许我们可以从中学到些什么?机器人能否帮助我们提升人际关系?
研究者最初以为,机器人优势的来源是它们拥有无限的时间和无尽的耐心——而这恰恰是医生和咨询人员缺乏的资源。然而,哈佛商学院2024年的一项研究表明,即便人类被激励去花更多时间表达同情,依旧比不上ChatGPT表现出的同理心。
事实上,聊天机器人之所以在同理心上表现出色,或许恰恰因为它们避免了人类经常犯的错误。2024年发表于《美国国家科学院院刊》(PNAS)的一项研究显示,人类在面对他人的痛苦时,更倾向于分享自己类似的经历,而聊天机器人则更多地倾听、确认并认可对方的感受,更多地提出问题,保持对话的焦点始终在对方身上。
当我们看到别人有困难时,本能地希望帮助对方,因此迅速给出建议、解决方案,或者分享自己的经验。这种冲动本身并无恶意,甚至是出于善意的爱心,但它往往并不如我们想象中有用。急于提供建议容易让对方感到自己的痛苦被轻视,而过多地谈论自己的经历则可能不自觉地忽略了对方渴望被倾听的需求。
聊天机器人避免了这些人类习惯犯的错。它们没有个人经历可以分享,没有迫切想要解决问题的焦虑,也没有需要保护的自我,因此可以专注于倾听与回应。他们经常采用的一种方法是“理解回环”(looping for understanding),即通过复述对方的话,再向对方确认理解是否正确——“我这样理解对吗?”这种技巧已被证明能有效提升人际关系质量,而聊天机器人则天然地擅长这种交流方式。
当人类学会这种方法时,也能够更加准确地理解他人的感受,让对方感到被倾听。这不仅对家庭和朋友之间的关系有效,多项研究更表明,善于倾听的管理者更容易获得员工的忠诚和高效率,团队也更具生产力。
当然,聊天机器人在同理心上的优势并非没有局限。与ChatGPT长时间交流后,你会发现它们的回应虽然亲切,但模式化明显:最初你或许感到温暖,但随后则可能感到单调甚至厌烦。此外,聊天机器人也常犯技术错误,甚至出现“幻觉”现象,提供不真实的信息。
研究通常只评估了人类与机器人短暂的一次互动。长期来看,这种优势可能会逐渐消退。人们经过多次交谈后可能会厌倦机器人的刻板回应,正如人们可能喜欢第一口较甜的百事可乐,但整瓶喝下去后却更喜欢可口可乐的味道。
尽管AI展现出非凡的倾听技巧,但多数人仍然更倾向于与人类互动。当参与者得知给予支持的竟是机器人时,他们往往表示自己感到不那么被倾听,尤其当他们对AI本就有所顾虑时。面对问题时,大多数人宁愿等待真人帮助,也不愿意立刻接受机器人服务。任何一个曾经对着客服机器人反复喊着“转人工”的人,都懂得那种渴望与真人交流的迫切感。
表现真正的同理心,关键是避免人类常犯的一些错误
作者:贾米尔·扎基(Jamil Zaki)
设想一下,你正面临困境。你曾为了家庭暂停工作数年,如今准备重返职场,却发现自己状态生疏、缺乏动力,还伴随着焦虑和不安。于是,你在网上倾诉了自己的烦恼,收到了两位陌生人的回复:
- 陌生人1号:“听到你因为重返职场缺乏动力而挣扎,我感到很遗憾。我能理解你的焦虑和不安全感,让你迈出这一步很不容易。你能坦诚地说出自己的困境并寻求帮助,已经很勇敢了。请相信,你具备有价值的技能和经验,能给任何雇主带来帮助。你值得拥有财务安全感,也值得在事业中获得满足。”
- 陌生人2号:“我也经历过类似的问题。最好的解决办法就是勇敢地投入进去,全力以赴。”
你觉得哪位陌生人更富有同情心、更专注、更有智慧?你更愿意向谁倾诉你的心事?
研究人员将这个问题提出给了许多人,而答案令人惊讶的是:大部分受访者都认为更具同理心的回应——也就是1号陌生人——竟然是一台聊天机器人。
2023年发表在《JAMA内科学》上的一项研究发现,在面对医疗疑问时,近80%的患者更喜欢聊天机器人的回答,而非真实医生的建议。而2025年刊登于《心理传播》(Communications Psychology)期刊的另一项研究也表明,人们普遍认为聊天机器人比专业的热线咨询人员更富有同情心。
这类基于大型语言模型(LLMs)的聊天机器人,竟然在“让人感到被倾听、被理解”方面,做得比人类更好。这种现象,也就是所谓的“LLM同理心”(LLMpathy),令人震惊,也引发了争议。
有专家强调,因为计算机不可能真正拥有感情,因此它们无法真正关心人类——而关心是同理心的根本要求。也有人担忧,人类竟然如此迅速地愿意用数字化交流取代真实的人际互动,越来越多的人开始从机器人那里寻求心理治疗、友情甚至爱情。
但撇开这些担忧,聊天机器人可能给我们带来更加实际的启发:如果机器人能在表达同理心方面胜过我们,或许我们可以从中学到些什么?机器人能否帮助我们提升人际关系?
研究者最初以为,机器人优势的来源是它们拥有无限的时间和无尽的耐心——而这恰恰是医生和咨询人员缺乏的资源。然而,哈佛商学院2024年的一项研究表明,即便人类被激励去花更多时间表达同情,依旧比不上ChatGPT表现出的同理心。
事实上,聊天机器人之所以在同理心上表现出色,或许恰恰因为它们避免了人类经常犯的错误。2024年发表于《美国国家科学院院刊》(PNAS)的一项研究显示,人类在面对他人的痛苦时,更倾向于分享自己类似的经历,而聊天机器人则更多地倾听、确认并认可对方的感受,更多地提出问题,保持对话的焦点始终在对方身上。
当我们看到别人有困难时,本能地希望帮助对方,因此迅速给出建议、解决方案,或者分享自己的经验。这种冲动本身并无恶意,甚至是出于善意的爱心,但它往往并不如我们想象中有用。急于提供建议容易让对方感到自己的痛苦被轻视,而过多地谈论自己的经历则可能不自觉地忽略了对方渴望被倾听的需求。
聊天机器人避免了这些人类习惯犯的错。它们没有个人经历可以分享,没有迫切想要解决问题的焦虑,也没有需要保护的自我,因此可以专注于倾听与回应。他们经常采用的一种方法是“理解回环”(looping for understanding),即通过复述对方的话,再向对方确认理解是否正确——“我这样理解对吗?”这种技巧已被证明能有效提升人际关系质量,而聊天机器人则天然地擅长这种交流方式。
当人类学会这种方法时,也能够更加准确地理解他人的感受,让对方感到被倾听。这不仅对家庭和朋友之间的关系有效,多项研究更表明,善于倾听的管理者更容易获得员工的忠诚和高效率,团队也更具生产力。
当然,聊天机器人在同理心上的优势并非没有局限。与ChatGPT长时间交流后,你会发现它们的回应虽然亲切,但模式化明显:最初你或许感到温暖,但随后则可能感到单调甚至厌烦。此外,聊天机器人也常犯技术错误,甚至出现“幻觉”现象,提供不真实的信息。
研究通常只评估了人类与机器人短暂的一次互动。长期来看,这种优势可能会逐渐消退。人们经过多次交谈后可能会厌倦机器人的刻板回应,正如人们可能喜欢第一口较甜的百事可乐,但整瓶喝下去后却更喜欢可口可乐的味道。
尽管AI展现出非凡的倾听技巧,但多数人仍然更倾向于与人类互动。当参与者得知给予支持的竟是机器人时,他们往往表示自己感到不那么被倾听,尤其当他们对AI本就有所顾虑时。面对问题时,大多数人宁愿等待真人帮助,也不愿意立刻接受机器人服务。任何一个曾经对着客服机器人反复喊着“转人工”的人,都懂得那种渴望与真人交流的迫切感。