跟AI聊天,你会问它什么?我前同事孟大明白说:
“我感觉AI最难以替代的是喜剧创作,幽默感是最复杂,最个体化,只能意会的东西。”
那我们就让它来讲一个笑话吧:
小明去应聘一份工作。面试官问他:“你有什么特长吗?”
小明想了想,认真地说:“我会预测未来。”
面试官有点惊讶,问:“哦?那你能预测一下你什么时候能被录用吗?”
小明淡定地回答:“这个嘛……我预测我不会被录用。”
面试官笑了:“哈哈,你预测错了,你被录用了!”
小明耸耸肩:“你看,我预测错了吧。”
这个笑话还挺绕的。
仿佛小明是人工智能,知道怎么装傻,然后扳倒了面试官——人类。
这两天不时看到关于人工智能的言论,大概是因为一场国际AI峰会:人工智能行动峰会于2月10日至11日在巴黎奥运会场馆之一大皇宫举行,多国政要、国际组织及商界代表、学者、艺术家以及公民社会成员齐聚一堂。
2月10日,OpenAI的首席执行官Sam Altman在博客上推广AGI(通用人工智能),他说:
“人类作为工具创造者,每一代都在前人的基础上构建出更强大的工具,从电力、晶体管、计算机、互联网,再到即将到来的AGI。AGI作为推动人类进步的工具,或将带来前所未有的繁荣和生活质量的飞跃。
“AI的使用成本每年下降约10倍,也许在十年之内,地球上的每个人都能够完成比当今最具影响力者更多的成就。到2035年,每个人都应该能够获得相当于2025年全人类智力总和的能力;人人都应该能够获取无限的智力资源,并按照自己的构想加以运用。”
这个观点也不是那么新鲜了,2023年10月,孙正义在软银世界企业大会上发表演讲时预测,未来AI的智能程度将是人类智力总和的10倍,相当于人类和猴子之间的智力差异。
去年12月
,
马斯克在社交网X上写道:“极有可能的是,到2025年年底人工智能将超越任何一个人的智力,在2027/2028年前,人工智能有可能超越所有人类智力的总和。”
《机器姬》剧照
我一直对各种AI冷眼旁观。智力强大就好吗?美国哥伦比亚大学教授菲利普·罗帕特说,“我见过几十位作家,其中有些也谈不上有多聪明,但是他们还混得不错:他们有诀窍,一种幸存者的直觉,一种突显他们最擅长的技能的神秘能力,并紧跟时代精神。
事实证明,作为一名作家,你不必那么聪明。你所需要的是自信。如果你有强烈的信念,你几乎可以让读者接受你写的任何东西。有时作家甚至可以通过下论断来表现出大于他写这个句子之前所拥有的智慧。
换句话说,单词本身,置于最紧凑的结构中,会在相互之间产生一种磁反应,释放一些出其不意的意义。”
今天看到一个盘点,“如今还有哪些哲学名宿仍然健在”,一共15位,
第一位乔姆斯基,96岁,第7位约翰·塞尔,92岁,这两位也都是人工智能的怀疑者。
诺姆·乔姆斯基
Noam Chomsky
我问deepsee
k,
乔姆斯基是怎样批评AI的,它的回答包括:
乔姆斯基对当前
主流的A
I
方法(尤其是深度学习和统计学习)持批评态度。
他认为这些方法缺乏对人类语言和认知本质的理解。具体批评包括:
缺乏解释性:当前的AI系统(如深度学习模型)通常是“黑箱”,无法解释其决策过程。乔姆斯基认为,科学的目标是理解现象,而不仅仅是预测或模拟。
过度依赖数据:乔姆斯基批评当前AI过于依赖大数据和统计方法,认为这种方法无法揭示语言和认知的内在规则和结构。
忽视人类语言的创造性:乔姆斯基以语言学研究闻名,他强调人类语言的创造性和规则性。他认为当前的AI模型无法真正理解语言的深层结构,只是通过统计关联来模拟语言行为。
然后,问deepseek,
约翰·塞尔是如何否定AI的,它的回答的第二部分说:
约翰·塞尔
John R. Searle
语法与语义的区别:计算机只能处理符号的语法,无法理解语义。即使计算机能模拟理解,也只是形式上的操作,缺乏真正的理解。
意识与理解:塞尔认为,真正的理解和意识需要内在的意向性(intentionality),而计算机仅靠符号操作无法具备这种能力。
强人工智能的谬误:塞尔批评强人工智能混淆了模拟与真实,认为模拟理解不等于实际理解。
回答得好像不错,只是也强
化了我对AI对话的一个印象:这就是在商业界泛滥的PPT的集大成者。
前几天还看到了果壳网的一个访谈,《集异璧》作者侯世达说:“我讨厌‘人工智能’这个词,因为它们没有智能。” 他说:“数据集里能堆砌出智能吗?不带目的和情绪的,算得上智能吗?现在的AI能做很多事情,但它们真的懂现实世界吗?或者,它们只是一个个空无一物的黑盒子而已?如果机器学习犯了一个错误,你很难知道要怎么修……
拥有创造力是和情绪联系在一起的。强烈的智识激情、好奇心和驱动力,愉悦感和玩耍心,所有这些在今天的计算机里都找不到。”