深度学习使机器可以模仿那些原本只有人类才能做到的事情,数学家们为了解释它们为什么能做得如此出色而绞尽脑汁,现在他们或许找到了答案。根据哈佛和MIT专家的最新研究结果,理解人工智能的关键并不在数学中而,是藏在最基本的物理定律中。
复杂的自然界其实很“简单”
深度学习可以理解为用数据和一系列算法来进行高阶抽象建模,这个模型包含很多“层”,每一层中都有一些用于数学计算的方程或函数。虽然它在很大程度上是一个数学工具,但深度神经网络能做的事情还是让数学家们感到惊讶:为什么层状排布的神经网络通过简单的计算就能做到像人类一样快速地识别出脸和各种物体?这困扰了数学家们很长一段时间。
然而,数学解释不了的东西,对物理来说却轻而易举。
哈佛大学Henry Lin和 MIT 的Max Tegmark认为,答案就在宇宙的基本法则里,而物理显然是研究这些法则的最好工具。
在数学上,要实现物体辨识需要遍历多种可能,《麻省理工科技评论》认为,例如若用遍历法辨识一个一兆大小的灰度图像究竟是一只猫还是狗,会涉及到256的一百万次方个可能的图像,不只是这样,对于每张涉及到的图像还要继续辨认其是狗还是猫,其难度可想而知。而神经网络却能够轻松地做到这些。
神经网络的工作过程可以理解为用简单的近似函数来“逼近”复杂函数,理论上,这意味着神经网络要经历一个从大量可能函数中找出近似函数的过程,但Lin和Tegmark认为神经网络并不需要遍历所有函数,它所需要的只是其中很小一部分。
这是因为宇宙的特点就是这样,虽然它极其复杂但其实真正起支配作用的只是一小组函数。物理定律都能够用一小部分简单的数学函数表述,大自然的这种模式正是神经网络所极力模仿的。
挖掘自然定律
“虽然我们还不理解其原因,但宇宙确实可以用一组低阶的哈密顿量多项式来准确地描述”,Lin和Tegmark如是说道。
进一步地,物理定律通常具有平动或转动对称性,这也简化了物体识别的“逼近”过程,例如将一只猫平移一段距离或转动某个角度后它还是一只猫。
另外,宇宙的“层”状结构也是神经网络效仿以简化工作的方法,Lin和Tegmark解释道:“原子是构成分子的基本粒子,分子又进一步构成细胞、有机体、星球、太阳系乃至银河系等等”。复杂的结构其实都是通过一系列的简单步骤建立起来的,神经网络的代码层能够按照自然发生的顺序效仿这些步骤,越高的层里包含的数据越多,这也是神经网络能实现快速“逼近”的关键。
最后Lin和Tegmark总结道:“我们已经证明了深度廉价学习(Deep and Cheap Learning)的成功不只归功于于数学,物理也功不可没,物理学中那些特殊又简单的概率分布非常适用于神经网络建模。”
有了物理学上的这些认识,我们对深度学习的理解又上了一个新的台阶。
名词解释
哈密顿量:哈密顿量是一个量子力学中的算符,描述系统的能量。
编辑:宋扬
参考:http://futurism.com/the-key-to-understanding-ai-may-be-buried-in-the-laws-of-physics/
招聘
编辑、视觉设计、运营助理、实习生(编译)
地点:北京
联系:[email protected]
IEEE中国是DeepTech深科技的战略合作伙伴,想要获得最新的科技资讯和会议信息,敬请关注IEEE中国。
MIT Technology Review 中国唯一版权合作方,任何机构及个人未经许可,不得擅自转载及翻译。
分享至朋友圈才是义举