年度订阅用户可加入科技英语学习社区,每周科技英语直播讲堂,详情查看“阅读原文”
在人工智能学界,Geoffrey Hinton拥有非常崇高的地位,甚至被誉为该领域的爱因斯坦。作为
“深度学习”之父,也正是这个技术让人工智能发展到今天这般炙手可热。
在人工智能领域最顶尖的研究人员当中,
Hinton
的引用率最高,超过了排在他后面三位研究人员的总和。
目前,
他的学生和博士后领导着苹果、Facebook以及OpenAI的人工智能实验室,而
Hinton
本人是谷歌大脑(Google Brain)人工智能团队的首席科学家。
事实上,人工智能在最近十年里取得的几乎每一个成就,包括语音识别、图像识别,以及博弈,
在某种程度上都能追溯到
Hinton
的工作。
1986年,Hilton联合同事大卫·鲁姆哈特(David Rumelhart)和罗纳德·威廉姆斯(Ronald Williams),发表了一篇突破性的论文,详细介绍了一种叫作“反向传播”(backpropagation,简称backprop)的技术。普林斯顿计算心理学家乔恩·科恩(Jon Cohen)将反向传播定义为
“所有深度学习技术的基础”。
归根结底,今天的人工智能就是深度学习,而深度学习就是反向传播,虽然
我们很难相信反向传播已经出现了30多年。
然而,就在上个月,Hinton
在多伦多的一场 AI 会议上,面对媒体 Axios 的采访时却表达了对反向传播算法的质疑。
他认为,反向传播算法并不是大脑运作的方式,要想让神经网络变得更智能。就必须放弃这种为所有数据标注的方式。
“我们需要放弃掉反向传播算法(Backpropagation algorithm),重新开辟一条新的路径。”
图丨杰弗里·辛顿(Geoffrey Hinton)
就在几个小时之前,由 Hinton 和其在谷歌大脑的同事 Sara Sabour、Nicholas Frosst 合作的 NIPS 2017 论文《Dynamic Routing Between Capsules》已经正式对外公开,
解释了不同 Capsules 间路由的学习。毫无疑问,以此为起点,人工智能未来形态的演进和塑造很可能将会呈现一个完全不一样的面貌。
论文地址:https://arxiv.org/abs/1710.09829
图丨刚刚公布的Hinton的论文
在这篇论文中,Hinton 首先解释 Capsule 作为一组神经元,它的活动向量(activity vector)表示特定类型实体(如某对象或某对象的部分)的实例化参数。
作者使用活动向量的长度来表征实体存在的概率以及其实例化参数的方向。而活跃在同一水平的 Capsule 通过变换矩阵对更高级别 Capsule 的实例化参数进行预测。当多个预测相统一的时候,较高级别的 Capsule 就开始变得活跃。
经过总结,经过区别训练的多层 Capsule 系统在 MNIST 上实现了最优的性能,在识别高度重叠的数字时,其效果要明显好于卷积神经网络。为了达到这样的结果,Hinton 他们使用了迭代的路由协议机制(routing-by-agreement mechanism):
一个低层的 Capsule 希望将其输出发送到一个活动向量具有大标量积、预测来自低层 Capsule 的高层 Capsule。
而之所以 Hinton 会提出 Capsule 的概念,这与他从 80 年代开始就关注人类大脑的原理不无关系,为此他还相继发表了一定数量的有关脑神经科学的论文。
在人工智能发展的初期,按照正常的思路,研究人员会自然而然的联想到将唯一拥有高级智慧的人脑作为机器的模拟对象,
由此也就成就了火热一时的人工神经网络。不过,单层人工神经网络的训练方式甚至无法使机器学会最简单的“异或”逻辑,多层神经网络的训练又遥遥无期。
最早的神经网络 Perceptron 诞生于1960年代,被誉为迈向类人机器智能的第一步。1969年,麻省理工学院的马文·明斯基(Marvin Minsky)和西摩·帕尔特(Seymour Papert)发表了著作《Perceptrons》,用数学的方法证明这种网络只能实现最基本的功能。这种网络只有两层神经元,一个输入层和一个输出层。
如果在输入层和输出层之间加上更多的网络,理论上可以解决大量不同的问题,但是没人知道如何训练它们,
所以这些神经网络在应用领域毫无作用。除了少数像 Hilton 这样不服输的人,大多数人看过这本书后都完全放弃了神经网络的研究。
图丨
杰弗里·辛顿(Geoffrey Hinton)