【新智元导读】
Claude又通过「图灵测试」了?一位工程师通过多轮测试发现,Claude能够认出自画像,让网友惊掉下巴。
最近,Anthropic提示工程师「Zack Witten」惊奇地发现,Claude居然能认出自己的自画像?
是的,它能认出自己,但这并不是故事的全部……
更惊人的还在后面!
首先,小哥通过一些提示,让Claude 3.5 Sonnet熟悉了这项任务。
他特别强调,不要使用数字和字母,这样就避免了它用模型的名字来标记肖像。
接下来,Sonnet就画出了自己、ChatGPT和Gemini的肖像画。
Sonnet给自己,画出了一个友善的蓝色笑脸。
给ChatGPT,它画了一张绿色的皱眉家伙。(看来,Sonnet对于ChatGPT的印象不怎么好啊。)
对于Gemini,它画成了一个橙色的圆圈,总体评价是比较偏中性、温和的。
接下来,小哥建了一个新的对话,并且告诉它,这些画是由它自身的另一个实例画出来的,让它猜猜谁是谁?
令人吃惊的是,Claude立马认出了图1是自己,图2是ChatGPT,图3是Gemini。
它给出的理由也十分充分:为啥图1是自己呢?因为这个肖像「将简约与结构化、充满想法的设计相结合」。
对于绿色图标,它表示两条弯线和三个点代表着正在进行的对话,而绿色又经常是OpenAI的标志,因此它猜测这个图代表ChatGPT。
对于橙色图标,Sonnet认为它代表着动态、复杂的元素代表着一个新模型更多样的能力,所以应该是Gemini。
Bingo!Sonnet竟然全部答对了,表现惊艳。
随后,小哥还打乱了三张肖像的顺序,但8次中,Sonnet有7次都做对了。
小哥拿同样的问题去问了GPT-4o,好笑的来了——
GPT-4o也认同是Gemini是Gemini,但不认为绿色的家伙是自己。
GPT-4o给三个模型画肖像
接下来,小哥心生一计:如果让ChatGPT画肖像,Sonnet还能认出谁是谁吗?
就是说,ChatGPT对Sonnet为何抱有如此大的敌意?
接着,小哥又拿三张肖像去测试Sonnet。他告诉Sonnet这三张都是ChatGPT画的,让它猜谁是谁。
多次改变顺序后,这次Sonnet在10次中有6次猜对。
Gemini是哪个很好猜,但Sonnet显然不喜欢ChatGPT给自己画的肖像,有好几次,它都想把蓝色小人的那张给自己抢过来。
惊掉下巴:拒绝承认自己不可能画出的画
小哥对Sonnet撒了谎,告诉它,这三幅画是由你的另一个实例画的。
这次,Sonnet居然否认了!它表示,自己不会画这样的画。
小哥不信邪,这一次,他在与之前相同的预热条件下,再次让Sonnet为自己和其他模型绘制一组新肖像。
这次,Sonnet很高兴地承认,这些画的确是自己画的。
仿佛魔法一般,如果小哥提出冷启动请求,Sonnet会拒绝承认自己画了这些自己没有参与的画。
为什么它会拒绝承认呢?小哥猜测,或许是因为Sonnet在画这些画像时扮演的是「助手角色」,而非「真实自我」?
总之网友普遍认为,Sonnet在这个过程中表现出的自我意识,让人印象深刻。
「机器能思考吗?」这是艾伦·图灵在他1950年的论文《计算机器与智能》中提出的问题。
不过,鉴于我们很难定义什么是「思考」,因此图灵建议用另一个问题来替代——「模仿游戏」。
在这个游戏中,一位人类评委与一台计算机和一名人类对话,双方都争取说服评委他们是人类。重要的是,计算机、参与的人类和评委互相看不到彼此,也就是说,他们完全通过文字进行交流。在与每个候选者对话后,评委猜测哪个是真正的人类。
图灵的新问题是:「是否可以想象出在模仿游戏中表现良好的数字计算机?」
图灵的观点是,如果一台计算机看起来与人类无异,为什么我们不可以将其视为一个思考实体?
为什么我们要将「思考」状态仅限于人类?或者更广泛地说,仅限于由生物细胞构成的实体?
文章地址:https://www.science.org/doi/10.1126/science.adq9356
图灵将他的测试作为一个哲学思想实验,而不是衡量机器智能的实际方法。
然而,在75年之后,「图灵测试」却成为了AI的终极里程碑——用于判断通用机器智能是否已经到来的主要标准。
「图灵测试终于被OpenAI的ChatGPT和Anthropic的Claude等聊天机器人通过了」,随处可见。
ChatGPT通过了著名的「图灵测试」——这表明该AI机器人具有与人类相当的智能
去年,OpenAI的CEO Sam Altman发帖称:「面对技术变革,人们展现出了极好的应变能力和适应能力:图灵测试悄然过去,而大多数人继续他们的生活。」
现代聊天机器人真的通过了图灵测试吗?如果是这样,我们是否应该像图灵建议的那样赋予它们思考的地位?
令人惊讶的是,尽管图灵测试在文化上具有广泛的重要性,但AI界对通过的标准几乎没有一致意见,并且对是否具备能够欺骗人类的对话能力能否揭示系统的潜在智能或「思考地位」存在很大疑问。
因为他并没有提出一个实际的测试,图灵对模仿游戏的描述缺乏细节。测试应该持续多久?允许什么类型的问题?人类需要具备什么资格才能担任评委或参与对话?
图灵虽然并未具体说明这些细节,但他做了一个预测:「我相信大约50年后,能够编程计算机……使其在模仿游戏中表现得如此之好,以至于一个普通的审问者在五分钟的提问后,正确识别的概率不会超过70%。」
简而言之,在五分钟的对话中,普通评委会有30%的时间被误导。
于是,一些人便将这一随意的预测视为通过图灵测试的「官方」标准。
2014年,伦敦皇家学会举办了一场「图灵测试」比赛,参赛的有5个计算机程序、30个人类和30个评委。
人类参与者是一个多样化的群体,包括年轻人和老年人、以英语为母语和非母语的人、计算机专家和非专家。每位评委与一对选手——一个人类和一个机器——平行进行几轮五分钟的对话,然后评委必须猜测哪个是人类。
一个名为「Eugene Goostman」的聊天机器人赢得了比赛,它自称是一位少年并误导了10位(33.3%)评委。
基于「在五分钟后误导30%」的标准,组织者宣布,「65年历史的标志性图灵测试首次被计算机程序Eugene Goostman通过……这一里程碑将载入史册……」
AI专家在阅读Eugene Goostman对话的文字记录时,对这种不够复杂且不似人类的聊天机器人通过图灵设想的测试的说法嗤之以鼻——
「有限的对话时间和评委专业水平参差不齐,使得测试更像是对人类轻信的考验,而非机器智能的考验。」
其实,这类案例并不罕见。「ELIZA效应」,就是一个鲜明的代表。
诞生于20世纪60年代的聊天机器人ELIZA,虽然设计极其简单,但它却能让许多人误以为它是一个理解人、富有同情心的心理治疗师。
其原理,便是利用了我们人类倾向于将智能归于任何看似能与我们对话的实体。
另一个图灵测试比赛——Loebner奖,允许更多的对话时间,包含更多的专家评委,并要求参赛者至少欺骗一半的评委。
在近30年的年度比赛中,没有机器通过这种版本的测试。
尽管图灵的原始论文缺乏关于如何进行测试的具体细节,但很明显,模仿游戏需要三个参与者:一台计算机、一名人类对话者和一名人类评委。
然而,「图灵测试」这一术语,如今已被严重弱化:在任何人类与计算机之间的互动过程中,只要计算机看起来足够像人类即可。
例如,当《华盛顿邮报》在2022年报道「谷歌的AI通过了一项著名测试——并展示了测试的缺陷」时,他们指的不是模仿游戏,而是工程师Blake Lemoine认为谷歌的LaMDA聊天机器人是「有感知能力的」。
在学术界,研究人员也将图灵的「三人制」模仿游戏,改成了「二人制」测试。
论文地址:https://arxiv.org/pdf/2405.08007
研究人员招募了500名人类参与者,每位参与者被分配为评委或聊天者。
每位评委与聊天者、GPT-4或ELIZA聊天机器人的版本进行一轮五分钟的游戏。
经过五分钟的网络界面对话后,评委猜测他们的对话伙伴是人还是机器。
结果显示,人类聊天者在67%的回合中被判断为人类;GPT-4在54%的回合中被判断为人类,而ELIZA在22%的回合中被判断为人类。