在真正理解人工智能的人中,几乎没有人认为人工智能会对人类产生威胁。
如果你相信你曾经读过的所有东西,你可能很担心具有“超智”(智慧超过人类)的人工智能的前景。英国报纸《卫报》最近警告我们说,“我们就像一群正在玩炸弹的孩子”。最近,美国《新闻周刊》的一篇头条新闻更是指出,人工智能即将来临,我们将会被它消灭。
许多这样的头条新闻,伊隆·马斯克和史蒂芬·霍金等人对人工智能的认识,都深受了一个人工作的影响:尼克·博斯特罗姆教授,他是《超智的哲学论述》的作者,文章论述了超智的途径、危险性和策略。
尼克·博斯特罗姆
博斯特罗姆是牛津大学的哲学家,而精算方法却是一门对风险进行定量评估的具体科学。他可能是世界上第一个杰出的“精算哲学家”,尽管这个词语看似有些矛盾,哲学是概念上的论证,而风险评估却是数据推动下的统计结果。
那么数据说明了什么呢?
博斯特罗姆收集了四份不同的调研结果,其中的调研对象包括了2011年在希腊塞萨洛尼基举行的“人工智能理论与哲学”会议参加者和希腊人工智能协会的会员等。(他没有给出问题的具体措辞以及回复者所占的比例,此外,他个人也不对所收集数据的可靠性负责。)
他的发现用概率表示了在各个时间节点上,人工智能所能达到的人类智慧水平。
到2022年,人工智能达到人类智慧水平的10%。
到2040年,人工智能达到人类智慧水平的50%。
到2075年,人工智能达到人类智慧水平的90%。
这份超过300页的论述中不乏各种哲学观点、寓言和比喻,而收集的这四个调研结果是有关人工智能进化到人类智能主要数据来源。
为了得到该领域主要研究人员的更准确的评估意见,作者求助于美国人工智能协会的研究员。这些研究员在过去已经为该领域做出了重要而持续的贡献。
在2016年3月初,美国人工智能协会做了一项匿名调查,向其中193名研究员提出如下一些问题:
“在博斯特罗姆的书中,他这样定义“超智”:在任何领域,都比人类大脑更聪明,包括科学创造力,智慧和社交技巧。你们认为我们什么时候才会实现‘超智’?”
在调查后的一周左右,80名研究员(41%的回应率)做出了如下回应:基本上,92.5%的回应者认为“超智”是不可预测的。
即使这项调查是匿名的,然而依旧有44名研究员选择了实名方式,其中包括杰夫•辛顿(深度学习大师),埃德·费根鲍姆(图灵奖获得者),罗德尼•布鲁克斯(首屈一指的机器人专家),彼德·诺米格(谷歌人工智能创始人之一)。
受访者还分享了以下几个评论:
“超智的实现远远超过25年,最有可能是几个世纪才能实现,但是不是永远不会实现。“
”我们正在与进化了几百万年的人类大脑竞争,我们可以写一个专用程序去解决单一问题,与人类竞争,有时候是可能的,但是这个世界上并非所有的问题都能单一化。“
尼克·博斯特罗姆是一个专业的人工智能“恐慌主义“传播者。他的研究所的任务就是找出对人类生存的危胁。他看到威胁无处不在,我们可以把他称为人工智能界的“唐纳德·特朗普”。
当然,调查的科学价值是有限的。调查的结果收很多因素影响。不过,博斯特罗姆自己当年不也是这么干的么?
另一种方法是根据现在人工智能的状态来推演未来的发展。然而,那是极其困难的,因为我们无法对当前的人工智能所达到的人类智慧水平进行定量描述。
尽管我们已经在棋类游戏像象棋和围棋领域实现了“超智”,但我们的程序却不能在八年级的科学测试上得到60分,而人工智能软件解释的简单句子的准确度也仅仅只有48%以上。
对于人工智能,有许多合理的担忧,从它对工作的影响到自动武器系统甚至“超智”的潜在威胁。然而,判断“超智”是可预测的这件事情并没有得到数据支持,更何况对其一味的悲观预测甚至都有没考虑人工智能在阻止医疗事故,减少车祸等等方面的潜在利益。
最后,人工智能系统可能会与人们合作去创造一个“人机共生”的“超智”,最终结果将与博斯特罗姆教授设想中那个有自主意识,并且会危害人类的那个人工智能很不相同。
编译:邵明
来源:MIT Technology Review
招聘
编辑、视觉设计、运营助理、实习生(编译)
地点:北京
联系:[email protected]
IEEE中国是DeepTech深科技的战略合作伙伴,想要获得最新的科技资讯和会议信息,敬请关注IEEE中国。
MIT Technology Review 中国唯一版权合作方,任何机构及个人未经许可,不得擅自转载及翻译。
分享至朋友圈才是义举