来源:网易智能
概要:
在与埃隆·马斯克赞助的非营利性人工智能研究机构OpenAI的合作下,该公司正在研究具有更高推理能力的机器人。
人工智能的未来在于神经学
在上周,谷歌DeepMind的创始人DemisHassabis在著名期刊的一篇评论文章中说到。
Hassabis对这两个领域都非常熟悉。他获得神经学博士学位,并且还是个电脑天才,创办了总部位于伦敦的DeepMind公司,以重建硅谷的人工智能技术。2014年,谷歌以超过5亿美元的价格收购了该公司。
这笔钱花得很值。去年,DeepMind研发的AlphaGo在全球的一系列围棋挑战中,让人类一败涂地。在与埃隆·马斯克赞助的非营利性人工智能研究机构OpenAI的合作下,该公司正在研究具有更高推理能力的机器人。
公司的秘密武器?神经学
在每一个DeepMind的人工智能中,我们的大脑总是最先发现一些概念和想法。深度学习和强化学习——当代人工智能的两大支柱——两者都把神经网络变成了数学运算。
以AlphaGo为例,研究成果非常之惊喜。但Hassabis认为这还不够。
和今天强大的人工智能一样,每一个都在其研究范围内受到限制。我们的目标是建立一个通用的人工智能系统,它能灵活快速地思考、推理和学习,能凭直觉了解真实世界并能构建出一个更好的世界。
Hassabis说:“为了让人工智能达到这一目标,我们需要更仔细地观察人类思维的内部运作,这可能是让智能系统达到目标的唯一途径。”
Hassabis和他的同事们写道:“在这两个领域中找到一种通用语言将创造一个良性循环,共同的理论见解和经验所得将帮助我们加快研究速度。”
关于智能的问题
对人工智能研究人员来说,这个门槛是很高的,他们努力突破当代人工智能的极限。
根据具体任务,机器学习方法是由特定的数学结构建立起来的。通过数以百万计的例子,人工神经网络学会了微调它们的连接强度,直到它们达到完美的状态,让它们能够准确地完成任务——可能是人脸识别或翻译语言。
因为每一种算法都是根据手头的任务强度设定的,所以人工智能重新学习一项新任务通常会消除之前已经建立起的联系。这就导致了“灾难性的遗忘”,当人工智能学习新的任务时,上一个任务它就会完全遗忘。
“持续性学习”的困境只是一个挑战。一些其他的问题在定义上甚至更加模糊,但是对于建造一个灵活、具有创造力的头脑却更加重要。
体验认知是一个大问题。正如Hassabis所解释的那样,它是一种通过感官和运动体验来和世界进行互动,从而获取认知的能力,并且还能创造出抽象的思维。
这是我们人类都知道的常识,一种对世界难以描述,但却对我们日常面临的问题极为有用的直觉。像想象力这样的特质是更加难以编程的。Hassabis说道:“这就是为什么在特定的任务上,人工智能会失败。”
想象力和创造力依赖于我们已经建立的世界模型,我们也能从模型中推断出新的情景。它们是非常强大的规划工具——但在人工智能的研究上仍然处于初级阶段。
来自大脑的灵感
Hassabis说:“事实上,人工智能研究人员并没有普遍认识到,当今许多关键的机器学习算法都来自于对动物学习的研究。”
举个例子:最近在神经科学上的发现表明,海马体——一种形似海马的结构,它是记忆编码的中枢——在休息和睡眠的过程中,能重新回放那些经历。这种离线回放可以让大脑从过去的成功或失败中吸取经验教训。
人工智能研究人员发明了这个创意,并将一个基本的海马版本应用到一个算法中,这个算法将深度学习和强化学习相融合。其结果就是强大的神经网络在经验的基础上进行学习。研究人员将当前情况与之前记忆储存的情况进行比较,并采取之前进行奖励的行为。
这些人工智能在传统的深度学习算法上表现出了显著的进步。他们也非常具有学习能力:相比于几百万个例子,他们只需要几个例子就能进行学习。
同样,神经学也为人工智能的进步提供了丰富的灵感,包括配备了“精神画板”的算法,让人工智能能够更有效地解决复杂问题。
光明的未来
最好的就要到来。
大脑成像工具和基因生物工程的出现,让我们前所未有地感受到神经网络是如何进行组织并解决问题的。
神经学家致力于解决“神经代码”,它是一种支撑大脑功能的基本运算,它为人工智能研究者们提供了一个不断壮大的工具箱。
人工智能可以从大脑中获益的一个区域就是我们对实际世界——空间、数字、物体等核心概念的认知。就像精神上乐高积木一样,这些概念成为了我们建模的基础,我们利用这些概念去建立我们的思维模型,这些思维模型又能够指导我们对世界进行认知和推断。
Hassabis说“我们已经有了要应对挑战的想法。对人类的研究表明,我们将感官信息分解成单个的物体和联系。当被植入代码时,人工智能在推理上就会表现的和人一样的水平。”
此外还有迁移学习,是把人工智能从具有一技之长的小马变成可以解决任何问题的思考者。其中一种方法叫做“顺次网络”,它能捕捉到迁移学习的一些基本原理,并在模仿的基础上成功地将其应用于训练真正的机器人身上。Hassabis说:“有趣的是,“顺次网络”就像大脑进行连续学习任务的计算模型。”
问题在于神经学还没有弄清楚人类和动物是如何实现高水平知识转移的。大脑可能会提取抽象的知识结构,以及它们之间的相互关系,但目前还没有直接证据来证明这种编码。