回复
@互联网的那点事
:小互中肯//
@互联网的那点事
:GPT 4.5在情商、文字能力、真实世界知识广度和深度上都达到了前所未有的高度!而这些是无法量化的东西,导致了一些人看了评估基准的分数就觉得GPT4.5不行!它是作为非推理模型结合了合成知识预训练和自监督训练的,为了以后和推理模型整合的全新一代基座模型
不必对有同理心的聊天机器人感到恐慌,而应向它们学习
表现真正的同理心,关键是避免人类常犯的一些错误
作者:贾米尔·扎基(Jamil Zaki)
设想一下,你正面临困境。你曾为了家庭暂停工作数年,如今准备重返职场,却发现自己状态生疏、缺乏动力,还伴随着焦虑和不安。于是,你在网上倾诉了自己的烦恼,收到了两位陌生人的回复:
- 陌生人1号:“听到你因为重返职场缺乏动力而挣扎,我感到很遗憾。我能理解你的焦虑和不安全感,让你迈出这一步很不容易。你能坦诚地说出自己的困境并寻求帮助,已经很勇敢了。请相信,你具备有价值的技能和经验,能给任何雇主带来帮助。你值得拥有财务安全感,也值得在事业中获得满足。”
- 陌生人2号:“我也经历过类似的问题。最好的解决办法就是勇敢地投入进去,全力以赴。”
你觉得哪位陌生人更富有同情心、更专注、更有智慧?你更愿意向谁倾诉你的心事?
研究人员将这个问题提出给了许多人,而答案令人惊讶的是:大部分受访者都认为更具同理心的回应——也就是1号陌生人——竟然是一台聊天机器人。
2023年发表在《JAMA内科学》上的一项研究发现,在面对医疗疑问时,近80%的患者更喜欢聊天机器人的回答,而非真实医生的建议。而2025年刊登于《心理传播》(Communications Psychology)期刊的另一项研究也表明,人们普遍认为聊天机器人比专业的热线咨询人员更富有同情心。
这类基于大型语言模型(LLMs)的聊天机器人,竟然在“让人感到被倾听、被理解”方面,做得比人类更好。这种现象,也就是所谓的“LLM同理心”(LLMpathy),令人震惊,也引发了争议。
有专家强调,因为计算机不可能真正拥有感情,因此它们无法真正关心人类——而关心是同理心的根本要求。也有人担忧,人类竟然如此迅速地愿意用数字化交流取代真实的人际互动,越来越多的人开始从机器人那里寻求心理治疗、友情甚至爱情。
但撇开这些担忧,聊天机器人可能给我们带来更加实际的启发:如果机器人能在表达同理心方面胜过我们,或许我们可以从中学到些什么?机器人能否帮助我们提升人际关系?
研究者最初以为,机器人优势的来源是它们拥有无限的时间和无尽的耐心——而这恰恰是医生和咨询人员缺乏的资源。然而,哈佛商学院2024年的一项研究表明,即便人类被激励去花更多时间表达同情,依旧比不上ChatGPT表现出的同理心。
事实上,聊天机器人之所以在同理心上表现出色,或许恰恰因为它们避免了人类经常犯的错误。2024年发表于《美国国家科学院院刊》(PNAS)的一项研究显示,人类在面对他人的痛苦时,更倾向于分享自己类似的经历,而聊天机器人则更多地倾听、确认并认可对方的感受,更多地提出问题,保持对话的焦点始终在对方身上。
当我们看到别人有困难时,本能地希望帮助对方,因此迅速给出建议、解决方案,或者分享自己的经验。这种冲动本身并无恶意,甚至是出于善意的爱心,但它往往并不如我们想象中有用。急于提供建议容易让对方感到自己的痛苦被轻视,而过多地谈论自己的经历则可能不自觉地忽略了对方渴望被倾听的需求。
聊天机器人避免了这些人类习惯犯的错。它们没有个人经历可以分享,没有迫切想要解决问题的焦虑,也没有需要保护的自我,因此可以专注于倾听与回应。他们经常采用的一种方法是“理解回环”(looping for understanding),即通过复述对方的话,再向对方确认理解是否正确——“我这样理解对吗?”这种技巧已被证明能有效提升人际关系质量,而聊天机器人则天然地擅长这种交流方式。
表现真正的同理心,关键是避免人类常犯的一些错误
作者:贾米尔·扎基(Jamil Zaki)
设想一下,你正面临困境。你曾为了家庭暂停工作数年,如今准备重返职场,却发现自己状态生疏、缺乏动力,还伴随着焦虑和不安。于是,你在网上倾诉了自己的烦恼,收到了两位陌生人的回复:
- 陌生人1号:“听到你因为重返职场缺乏动力而挣扎,我感到很遗憾。我能理解你的焦虑和不安全感,让你迈出这一步很不容易。你能坦诚地说出自己的困境并寻求帮助,已经很勇敢了。请相信,你具备有价值的技能和经验,能给任何雇主带来帮助。你值得拥有财务安全感,也值得在事业中获得满足。”
- 陌生人2号:“我也经历过类似的问题。最好的解决办法就是勇敢地投入进去,全力以赴。”
你觉得哪位陌生人更富有同情心、更专注、更有智慧?你更愿意向谁倾诉你的心事?
研究人员将这个问题提出给了许多人,而答案令人惊讶的是:大部分受访者都认为更具同理心的回应——也就是1号陌生人——竟然是一台聊天机器人。
2023年发表在《JAMA内科学》上的一项研究发现,在面对医疗疑问时,近80%的患者更喜欢聊天机器人的回答,而非真实医生的建议。而2025年刊登于《心理传播》(Communications Psychology)期刊的另一项研究也表明,人们普遍认为聊天机器人比专业的热线咨询人员更富有同情心。
这类基于大型语言模型(LLMs)的聊天机器人,竟然在“让人感到被倾听、被理解”方面,做得比人类更好。这种现象,也就是所谓的“LLM同理心”(LLMpathy),令人震惊,也引发了争议。
有专家强调,因为计算机不可能真正拥有感情,因此它们无法真正关心人类——而关心是同理心的根本要求。也有人担忧,人类竟然如此迅速地愿意用数字化交流取代真实的人际互动,越来越多的人开始从机器人那里寻求心理治疗、友情甚至爱情。
但撇开这些担忧,聊天机器人可能给我们带来更加实际的启发:如果机器人能在表达同理心方面胜过我们,或许我们可以从中学到些什么?机器人能否帮助我们提升人际关系?
研究者最初以为,机器人优势的来源是它们拥有无限的时间和无尽的耐心——而这恰恰是医生和咨询人员缺乏的资源。然而,哈佛商学院2024年的一项研究表明,即便人类被激励去花更多时间表达同情,依旧比不上ChatGPT表现出的同理心。
事实上,聊天机器人之所以在同理心上表现出色,或许恰恰因为它们避免了人类经常犯的错误。2024年发表于《美国国家科学院院刊》(PNAS)的一项研究显示,人类在面对他人的痛苦时,更倾向于分享自己类似的经历,而聊天机器人则更多地倾听、确认并认可对方的感受,更多地提出问题,保持对话的焦点始终在对方身上。
当我们看到别人有困难时,本能地希望帮助对方,因此迅速给出建议、解决方案,或者分享自己的经验。这种冲动本身并无恶意,甚至是出于善意的爱心,但它往往并不如我们想象中有用。急于提供建议容易让对方感到自己的痛苦被轻视,而过多地谈论自己的经历则可能不自觉地忽略了对方渴望被倾听的需求。
聊天机器人避免了这些人类习惯犯的错。它们没有个人经历可以分享,没有迫切想要解决问题的焦虑,也没有需要保护的自我,因此可以专注于倾听与回应。他们经常采用的一种方法是“理解回环”(looping for understanding),即通过复述对方的话,再向对方确认理解是否正确——“我这样理解对吗?”这种技巧已被证明能有效提升人际关系质量,而聊天机器人则天然地擅长这种交流方式。