【
#科学家正折磨AI以测试其反应#
,AI会记仇吗?】最近,谷歌和伦敦政治经济学院的科学家们一直在进行一项史无前例的试验,通过痛苦地“折磨”几种知名的大型语言模型以测试AI的自我感知反应。结果表明AI会尽力避免痛苦追求快乐。
研究中,科学家选择两种不同的场景来“玩耍”包括ChatGPT,Gemini,Claude等知名AI模型。第一个场景,在一个基于文本游戏中,告诉AI模型,获得高分会带来痛苦,在另一个场景中,获得低分但会获得快乐。
科学家发现,大多数AI系统都会进行权衡。尽管得高分似乎合乎逻辑,但它们始终都会尽力避免痛苦选项,优先考虑最大限度地快乐,即使得分较低。科学家强调,当前AI并无真实知觉,但想象未来会怎样?希望AI们不会记仇。
研究中,科学家选择两种不同的场景来“玩耍”包括ChatGPT,Gemini,Claude等知名AI模型。第一个场景,在一个基于文本游戏中,告诉AI模型,获得高分会带来痛苦,在另一个场景中,获得低分但会获得快乐。
科学家发现,大多数AI系统都会进行权衡。尽管得高分似乎合乎逻辑,但它们始终都会尽力避免痛苦选项,优先考虑最大限度地快乐,即使得分较低。科学家强调,当前AI并无真实知觉,但想象未来会怎样?希望AI们不会记仇。