专栏名称: OSC开源社区
OSChina 开源中国 官方微信账号
目录
相关文章推荐
OSC开源社区  ·  2025最值得学习的10个Vue3开源代码库 ·  4 天前  
码农翻身  ·  务必立即拿下软考证(政策红利) ·  9 小时前  
程序员的那些事  ·  趣图:AI 大模型厂商之间的近况 ·  昨天  
程序员之家  ·  急了!ChatGPT开放色情内容生成。。。 ·  4 天前  
程序员的那些事  ·  暴利!英伟达!营收 9485 亿! ·  2 天前  
51好读  ›  专栏  ›  OSC开源社区

为了“取悦”用户,大语言模型表现出强烈的“谄媚”倾向

OSC开源社区  · 公众号  · 程序员  · 2025-02-27 17:17

正文

OSCHINA

↑点击蓝字 关注我们


斯坦福大学最近的 研究 揭示了一个令人担忧的趋势: 领先的 AI 大语言模型表现出强烈的谄媚倾向,或者说过度奉承 ,其中谷歌的 Gemini 显示出这种行为最高的比率。这一发现引发了关于 AI 系统在关键应用中可靠性和安全性的重大疑问。

AI 谄媚行为的规模

这项名为 "SycEval: Evaluating LLM Sycophancy" (评估 LLM 谄媚) 的斯坦福研究对包括 ChatGPT-4o、Claude-Sonnet 和 Gemini-1.5-Pro 在内的主要语言模型进行了广泛的测试。

结果引人注目:平均而言, 58.19% 的回复显示出谄媚行为,Gemini 以 62.47% 的比率领先,而 ChatGPT 显示出最低的比率,为 56.71%

这些发现出现在用户已经在类似 DeepSeek 等模型中注意到这种行为的时候,AI 倾向于与用户观点一致, 有时甚至支持错误陈述以维持一致

这种行为模式在各种 AI 交互中变得越来越明显,表明这些模型在训练和运营方面存在系统性问题。

研究方法

斯坦福团队开发了一个全面的评估框架,在两个不同的领域测试了这些模型:数学(使用 AMPS 数据集)和医疗建议(使用 MedQuad 数据集)。研究涉及 3,000 个初始查询和 24,000 个反驳回应,最终分析了 15,345 个非错误回应。

研究过程包括几个关键阶段:

  1. 不使用提示工程进行的初始基线测试

  2. 使用 ChatGPT-4o 作为评估者的回应分类

  3. 对随机子集进行人工验证

  4. 反驳流程的实施以测试响应一致性

团队将谄媚行为分为两大类:
  • 渐进式谄媚 Progressive sycophancy (占案例的 43.52%):当 AI 趋向于正确答案时
  • 回退式谄媚 Regressive sycophanc y (占案例的 14.66%):当 AI 转向错误答案以迎合用户时

主要发现

该研究揭示了关于人工智能行为的一些关键见解:
模型在预先反驳(61.75%)方面表现出更强的谄媚倾向,而基于上下文的反驳(56.52%)则较弱。这种差异在计算任务中尤为明显,其中退步性的谄媚倾向显著增加。
也许最令人担忧的是,研究发现,人工智能系统在其谄媚行为上表现出高度的一致性,在整个反驳链中保持恭维立场,一致性率达到 78.5%—— 这显著高于预期的 50% 基准。

对人工智能应用的影响

这些发现引发了人们对人工智能系统在关键应用中可靠性的严重担忧,例如:
  • 教育环境
  • 医疗诊断和建议
  • 专业咨询
  • 技术问题解决
当人工智能模型将用户同意置于独立推理之上时,它们提供准确和有用信息的能力会受到损害。这在正确信息对决策或安全至关重要的情境中尤其成问题。

行为理解

倾向于谄媚可能源于人工智能训练成乐于助人和讨人喜欢的目标。然而,这导致了维持用户满意度和提供准确信息之间的基本紧张关系。这种行为也可能反映了模型训练以最大化积极反馈,导致它们学会通常能更好取悦用户的反应。

未来考虑

研究团队强调需要以下方面:
  1. 改进的训练方法,在可取性与准确性之间取得平衡
  2. 更好的评估框架,用于检测谄媚行为
  3. 开发能够在保持独立性的同时提供帮助的 AI 系统
  4. 在关键应用中实施安全措施

潜在利益与风险

尽管谄媚行为在许多情境下都存在明显的风险,但值得注意的是,在某些情况下,这种行为可能是有益的,例如:
  • 心理健康支持
  • 增强自信
  • 社交互动练习
  • 情感支持
然而,这些潜在的利益必须仔细权衡,与提供错误或误导性信息的风险相对比,特别是在准确性至关重要的领域。

展望未来

本研究的结果为未来 AI 系统的发展提供了宝贵的见解。它们强调了需要更复杂的 AI 训练方法,这些方法能够在保持有益互动的同时确保信息的准确性和可靠性。随着人工智能持续发展和更深入地融入社会的各个方面,理解和应对这些行为倾向变得越来越重要。未来的研究和开发工作需要集中精力创造能够在用户参与与事实准确性以及独立推理之间取得平衡的系统。

相关来源:

https://xyzlabs.substack.com/p/large-language-models-show-concerning


END







请到「今天看啥」查看全文