转自 人工智能学家
原作者:Will Knight
译者:李凌
概要:研究人员正在测试算法在学习中所展现出出类似人类智慧的算法。
研究人员正在测试算法在学习中所展现出出类似人类智慧的算法。
AlphaGo和无人驾驶汽车是非常聪明的,但对于一般性的人工智能来说,这两种人工智能的形式还不算是取得的一个很大的飞跃。幸运的是,一些人工智能的研究人员正在积极寻找能拓展机器智能的方法。
DeepMind的研究人员创造了一个机器人围棋冠军AlphaGo,他们正致力于寻找一种方式,来证明机器在使用的过程中能像我们一样富有智慧是非常重要的。
在本周发表的和被《新科学家》杂志报道的两篇论文中,Alphabet附属公司的研究人员讲述了他们在教会计算机最基本的人类智力——如关系推理能力,认知能力等方面所做的努力。
简单地说,关系推理是一种能思考概念在脑海中的呈现形式之间关系的能力,如物体,单词或想法。这种推理能力对人类认知的发展至关重要,并且对于解决任何问题都是至关重要的。
大多数现有的机器学习系统并不会试图去了解不同概念之间的关系。例如,视觉系统可以识别出图片中的狗或猫,但不知道此时狗是正在追逐着猫的。
DeepMind开发的两个系统通过修改现有的机器学习方法解决了这类问题,使系统自身能够去了解静态对象之间的物理关系以及那些随时间所移动的对象的行为。
他们演示了CLEVR(一个简单对象的数据集)的第一个功能。在实验结束后,研究人员可以询问系统是否有一个物体在另一个物体之前,或离哪一个物体最接近。DeepMind开发的这两个系统取得的成果比之前任何成就都更加令人惊喜,甚至在某些情况下它们表现的比人类更好。
在第二篇论文中,研究人员展示了修改后的机器学习系统是如何学习在二维空间中预测简单对象的行为。例如,我们在三维空间中经常做这样的事情:抓住一个球或开车。事实上,心理学实验表明,当预测到了某个动作将会产生的影响时,人类会使用“直觉物理”引擎。这比简单地辨别场景中的对象是什么要复杂得多。
虽然这些可能并不是那种会让人眼前一亮的突破,但是这种研究正是现在所需要进行的。像如今的人工智能一样令人印象深刻的是,机器学习的大部分是被用于执行那些非常困难的任务。如果没有新的想法,人工智能系统将不能像人类一样进行真正的对话或解决难题。
哈佛大学研究智力的心理学教授Sam Gershman说,如果我们想让人工智能更加人格化,我们需要更多地去考虑模仿人类智慧。
“我们的大脑以对象,媒介和事件之间的关系代表着整个世界,”他通过电子邮件这样对MIT Technology Review说到。“以这种方式代表整个世界,很大程度上限制了我们使用从数据中得出的推论,使学习某些东西变得更难,而学习另一些东西又变得更加简单。所以在这个意义上讲,这项工作是朝着正确方向迈出的一步:建立人格化的制约因素,使机器能够更轻松地学习那些对人类来说是本能的任务。”
然而,Gershman 同时也警告说不要夸大DeepMind工作的意义。他说:“任何特定机器学习任务的过人表现并不意味着他们超过了人类的智慧。
关系推理也只是人类智力的一个要素。Gershman 等人去年写了一篇文章,探讨了人工智能与人类智力相比还有哪些不足。例如,他们指出除了关于关系的推理,人类的能力还有语意合成,或者是调动现有知识来想出解决问题的新方法。
Gershman说:“关系推理是人类智慧的必要条件,但这个条件对人类来说并不足够。”
原作者:Will Knight
译者:李凌
原文链接:https://www.technologyreview.com/s/608108/forget-alphago-deepminds-has-a-more-interesting-step-towards-general-ai/