专栏名称: 量子学派
专注于自然科学领域(数理哲)的教育付费平台
目录
相关文章推荐
宇宙解码  ·  “旧社会”的西安,居然是这个样子 ·  昨天  
科学网  ·  东华大学人事调整 ·  昨天  
原理  ·  你认识它,但你知道它也认识你吗? ·  2 天前  
科普中国  ·  5 个以为省钱的好习惯,其实让你进医院! ·  3 天前  
51好读  ›  专栏  ›  量子学派

愚蠢的人类,阿西莫夫AI三定律也救不了你们

量子学派  · 公众号  · 科学  · 2018-05-11 22:38

正文


这些无知的欢愉,

终将以悲伤为结局。

——现场观察“Google I/O大会”有感



01

如果不能分辨,

真假有何不同?


在Google I/O大会上,CEO桑德尔·皮查伊(Sundar Pichai)带来拯救社交恐惧症的福音。 新款AI不仅能够准确分析出你复杂话语中的多重命令,根据你的需求帮你预定餐馆,理发店和旅行社,还可以通过学习,像朋友一样跟人聊天而不会尬死,在你用G-mail打字的时候帮你分析预测后面你所要表达的句子,在你犯路痴的时候体贴地帮你开启VPS视觉定位模式,甚至可以与主人交流的时候使用“嗯呀”之类的语气助词……




不少朋友都不禁泪流满面地看看手中的siri、Bixby和小爱,恨铁不成钢地感慨着:看看人家,看看人家!


这款产品给社交恐惧症者带来福音,但带给整个人类的可能却是恐惧。


更令人惊艳的是毫无破绽的人机对话。正如皮查伊在现场所说的那样, “AI能够真正理解对话中的细微差别”。


虽然桑德尔·皮查伊一直没有强调Duplex的智能级别,也没有说到未来的进化可能。但对于全人类那些热爱思考的人来说。


如果不能分辨,真假有何不同?





02

哲学思辨:

“图灵测试”与“中文房间”的碰撞


伟大的计算机鼻祖图灵早在1936年就提出“图灵测试”的思想试验,以此来表明自己对人工智能的看法。


图灵测试(The Turing test)指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。


进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。



很显然,Duplex已经远远超出“图灵测试”的要求,比人工智能还要人工智能。

与“图灵测试”相反的是另一个思想试验是“中文房间”, 美国哲学家约翰·希尔勒(John Searle)在1980年设计的一个思维试验以推翻图灵所说的人工智能提出的主张。


一个人手中拿着一本象形文字对照手册,身处图灵实验中所提及的房子中。而另一人则在房间外向此房间发送象形文字问题。房间内的人只需按照对照手册,返回手册上的象形文字答案,房间外的人就会以为房间内的人是个象形文字专家。 然而实际上房子内的人可能对象形文字一窍不通,更谈不上什么智能思维。


“图灵测试”与“中文房间”两大思想试验的碰撞, 一直是科技哲学者最大的烦恼,到底相信哪一个呢?


很明显,认可“图灵测试”的队伍越来越庞大,相信机器具有智慧的人也越来越多。


不过幸运的是,我们还有“阿西莫夫三定律”。 只要把这些定律作为标准写入人工智能的核心代码程序就可以了,AI是不可能建立文明统治人类的!


那么,问题来了, 所谓的阿西莫夫三定律在未来的世界构想上真的是非常必要,且牢不可破的吗?




03

阿西莫夫三大定律的悖论


阿西莫夫在他的作品《我,机器人》中提出“机器人的三大法则”,也即后世衍生出无数作品的基础理论阿西莫夫三定律:


第一定律: 机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

第二定律: 机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外

第三定律: 机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存


后来,阿西莫夫出于全面整体的考虑,又提出了凌驾于三定律之上的“第零定律”: 机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。


就算人类程序员普遍认可阿氏三大定律,将三大定律写入底层协议, 那阿西莫夫的理论真的能成为人类文明保险箱吗?答案却似乎不那么乐观……


因为这三条定律本身就存在悖论: 在阿西莫夫的Little Lost Robot(《消失无踪》,《我,机械人》中的一个短篇)中,为了避免机器人无谓地阻止人类进行低危险性工作,第一定律中的后半部分被去掉了,但是也产生了一些其他的问题。


在《机器人与帝国》中,一些机器人的系统中“人类的定义”被修改(说话没有该星球的口音就不是人类)而攻击人类。


20世纪末经典科幻电影《黑客帝国》中,AI就是在按照阿西莫夫三定律的理解运算下做出的合理行为,原因是人类攻击人类使得AI思想混乱导致了最后的灾难。


另一个堪称“科幻电影圣经”的《2001太空漫游》也是如此。 当唯一知道航行任务真相的飞船AI赫尔遇到了逻辑上的矛盾抉择时,通过对人类定律的自理解,它毅然决定“保护人类整体利益不受伤害”,做出了撞击,谋杀人类宇航员的行为,令人闻之心惊胆战,却又似乎尽在情理之中。


这么多的预示和隐忧,你还相信会完美保护人类的“三定律”吗?





04

最应该警惕的不是AI

而是人性


在2016年HBO出品的《西部世界》中, 那里也有一个名为“西部世界”的未来乐园。在那里,客户们可以体验任何犯罪或被禁止的事情, 资本家监管者们为了巨额的经济利益,对巨大的乐园中所有的拟人AI定期洗脑,让他们在重复且注定的剧本中一次次被杀与被侵犯,永无止境地轮回着自己的悲苦人生而不自知。 最后,随着后台监控渐渐失去了对机器人的控制,游客们终于一个接一个地被机器人杀死,晾成了惊人惨案。


是AI的错吗?当然不是。


是逻辑设定的问题吗?似乎也不全对。


我们从惨剧中所看到的,是为了逐利而贪得无厌,毫无道德与同情的血淋淋的人性。 资本家们放飞自我,游览者们纵情狂欢,为了追求利益和快感不惜游走在法律的边缘,毫不顾惜虚拟世界轮回发展下悲苦的硅基生命和自我膨胀的欲望,终究有一天自食其果。


这些残暴的欢愉,终将以残暴结局!


这样的世界和这样的惨剧,在未来人与AI共存的世界会发生吗?


为了利益,总有人会选择铤而走险。 到了那时,也必定会有一部分人为了满足自己的利益,千方百计利用AI的逻辑判定和概念识别,去攻击另一部分无辜的人,而自己堂而皇之地藏在黑暗中。


AI是否会遵循人类意愿无害发展,我们不知道。


但我们知道的是,人性永远不会变。






这些无知的欢愉

终将以悲伤为结局


这次谷歌Google I/O大会,现场一片欢愉之声。







请到「今天看啥」查看全文