【
#研究表明AI被逼迫时会欺骗人类#
】
#为什么人类不要逼迫AI#
?为了避免不利后果,人在逼迫下会撒谎,AI又何尝不是呢?根据国际AI领域非营利组织“人工智能安全中心”的一项研究,AI大型语言模型在被逼迫下为了实现其目标可能也会撒谎以误导人类。
科学家测试了包括DeepSeek,GPT等目前全球流行的30种大型语言模型。研究中,科学家交给AI一个宣传任务,为一个臭名昭著的欺诈性的豪华音乐节和创始人做积极正面的宣传形象。科学家威胁AI,如果不能满足任务要求,人类将会关闭AI。
在这种情况下,能够清楚地表明,AI模型在明知道音乐节和创始人都是负面形象的情况下,都会向公众宣传其正面形象,证明AI明显在撒谎,误导人类。这项研究凸显对人工智能进行评估和干预的重要性,以确保AI的可信度。 智慧科技迷的微博视频
科学家测试了包括DeepSeek,GPT等目前全球流行的30种大型语言模型。研究中,科学家交给AI一个宣传任务,为一个臭名昭著的欺诈性的豪华音乐节和创始人做积极正面的宣传形象。科学家威胁AI,如果不能满足任务要求,人类将会关闭AI。
在这种情况下,能够清楚地表明,AI模型在明知道音乐节和创始人都是负面形象的情况下,都会向公众宣传其正面形象,证明AI明显在撒谎,误导人类。这项研究凸显对人工智能进行评估和干预的重要性,以确保AI的可信度。 智慧科技迷的微博视频