最近几年,大家对AI,也就是人工智能的期待一直很高。有人说人工智能是新时代的基础设施,还有人说人工智能会重塑所有的行业,彻底改变这个世界。
但是,《AI3.0》这本书的作者,复杂系统领域的前沿科学家梅拉妮•米歇尔,她认为,
人类高估了人工智能的进步,低估了人类智能的复杂性,
其实,目前的人工智能和人类智能之间的差距还很远。
推荐阅读
▼
作者:[美] 梅拉尼·米歇尔
译者:王飞跃 李玉珂 王晓 张慧
点击书封即可购买
就拿热度很高的自动驾驶来说,现在普遍有一种非常乐观的看法,认为L5级的自动驾驶很快就会实现。所谓L5级自动驾驶,就是指车辆在任何环境下都能完成所有驾驶行为,完全不需要人类参与。特斯拉CEO埃隆·马斯克就曾表示,特斯拉将在2021年底实现L5级自动驾驶。
但是,《AI3.0》这本书却告诉我们,
现实恐怕没有那么乐观,不管是实现真正的L5级自动驾驶,还是类似的高级功能,人工智能还有很多障碍要克服。主要是因为一下原因。
首先,在面对罕见情况的时候,人类可以随机应变,而人工智能更容易犯错。
这是因为,人工智能有两种学习方式:“有监督学习”和“无监督学习”,这两种方式都不能很好地适应没见过的新问题。“有监督学习”是让人类告诉人工智能,它的某个做法对不对,帮它积累经验。这种方式的学习效率低,训练总量不可能很大,一旦面对罕见的情况,人工智能可能就会“不知所措”。
而“无监督学习”,也就是人工智能自己判断它的做法对不对,然后调整自己的算法。这种方法理论上是最有效的,但是目前还没有特别成功的算法。
举个例子,2016年的时候,天气预报说美国东北部会出现大规模暴风雪,交通部门为了预防结冰,提前铺设了许多融雪剂,在道路上形成了一条条的白色线段。而特斯拉汽车的自动驾驶系统,把这些线段错当成了正常的道路标志,导致自动驾驶功能出现了混乱。
其次,
人工智能
的算法太过复杂,人类不能理解它的
整个
决策过程。
一个普通的人工智能算法,产生一个结果,背后可能会进行高达数十亿次的计算。它就好像是一个“黑箱”,我们只能看见输入的数据和输出的结果,却不知道到底是通过哪些步骤得出了这个结果。
欢迎转发金句卡到朋友圈
这种运作方式让人类很难对人工智能产生信任,更让人担心的是,这还会留下一些安全隐患。
举个例子,有一种叫作“对抗式攻击”的方法,很容易让人工智能产生误判,把一些物体,甚至是人类眼中没有意义的乱码,看作是有特殊含义的其他东西,比如把一辆汽车看作是一只鸵鸟,或者把一个带着特殊眼镜的男人看成一位女明星。
这意味着,别有用心的人,完全不用入侵你的电脑,就能攻击你的人工智能系统。比如你的汽车行驶在道路上,前方的汽车上被人贴了一个不起眼的小标志,如果是人类驾驶者,可能都没有察觉到有什么变化,而这个小标志却可以影响汽车的自动驾驶系统,让它认为前方根本不存在任何东西,可以加速前进,这样就可能发生严重的交通事故。
所以,我们一定要理解,人工智能和人类智能是完全不同的,它们有着各自的优势和劣势,只有接受了这一点,才能让人机共生的时代更美好。
推荐阅读
▼
作者:[美] 梅拉尼·米歇尔
译者:王飞跃 李玉珂 王晓 张慧
点击书封即可购买
好,以上就是我为你分享的内容,其中包括了本期音频的金句卡片,欢迎你保存和转发,当然也欢迎你在评论区留言,分享你的精彩观点。
韩焱精选,明天见!
湛庐创始人韩焱老师将用专业出版人的视角,每天为你推荐一本好书。专栏将用一条音频,一段文字,解开你的阅读困扰。和你一起亲自阅读,与最聪明的人共同进化。