专栏名称: 腾讯研究院
【腾讯研究院 ★ Tencent Research Institute】 网聚智慧,连接世界!网罗互联网前沿理念、传递互联网发展声音、汇集互联网研究成果、推动互联网法治进程。
目录
相关文章推荐
新浪科技  ·  【#全国登记在册民营企业超5500万户#】市 ... ·  4 天前  
新浪科技  ·  【#比亚迪发布2024员工持股计划#,总人数 ... ·  1 周前  
51好读  ›  专栏  ›  腾讯研究院

深度学习真的万能吗?理解深度学习的局限性

腾讯研究院  · 公众号  · 科技媒体  · 2017-04-06 17:37

正文

选自venturebeat

作者:MARIYA YAO, TOPBOTS

机器之心编译

深度学习较其他机器学习方法在各类任务中都表现优异,各个机构或院校也花了巨大的精力和时间投入到深度学习,并取得了令人惊叹的成就。但深度学习近来也暴露出其内在缺陷,很多学界领军人物都在积极探讨解决办法和替代方案。因此本文力图阐述深度学习的局限性,引发更多对深度学习的思考。


人工智能已经达到了炒作的顶峰。新闻报告称有的公司已经使用 IBM Watson 取代了工人、算法在诊断上击败了职业医生。每天都会有新的人工智能创业公司出现,宣称能使用机器学习取代你的私人和商业难题。


榨汁机、Wi-Fi 路由器这样普通的物品也忽然宣称是「由人工智能驱动」。智能的站立式桌子不仅能记住你调节的高度,也能为你点餐。


许多有关人工智能的喧哗都由那些从未训练过神经网络的记者,创业公司或者从未真正解决过商业难题却想要被高价聘请的编程人才所发出的。所以,有关人工智能的能力与限制,难免有如此多的误解。


深度学习无疑使人兴奋


神经网络创造于上世纪 60 年代,但近年来大数据和计算能力的增加使得它们在实际上变得有用。于是,一种名为「深度学习」的新的学科出现,它能使用复杂的神经网络架构以前所未有的准确率建模数据中的模式。


结果无疑使人惊讶。计算机如今能比人类更好地识别图像和视频中的物体以及将语音转录为文本。谷歌就用神经网络取代了谷歌翻译的架构,如今机器翻译的水平已经很接近人类了。


深度学习在实际应用中也令人兴奋。计算机能够比 USDA 更好的预测农作物产量,比医师更准确的诊断癌症。DARPA 的主任 John Launchbury 曾这样描述人工智能的三个浪潮:


  1. 像 IBM 的深蓝或 Watson 这样的人工编码知识或专家系统;

  2. 统计学习,包括机器学习与深度学习;

  3. 环境自适应,涉及到使用稀疏数据为真实的世界现象构建可靠的、可解释的模型,就像人类一样。


作为目前人工智能浪潮的第二波,深度学习算法因为 Launchbury 所说的「流形假设(manifold hypothesis)」(见下图)而更加有效。简单解释,它指代不同类型的高维自然数据如何聚成一块,并在低维可视化中有不同的形状。



通过数学运算并分割数据块,深度神经网络能区分不同的数据类型。虽然神经网络能够取得精妙的分类与预测能力,它们基本上还是 Launchbury 所说的「spreadsheets on steroids」。



深度学习也有深度难题


在最近的 AI By The Bay 大会上,Francois Chollet 强调深度学习是比以前的统计学和机器学习方法更为强大的模式识别方法。「人工智能如今最重要的问题是抽象和推理,」Google 的人工智能研究员 Chollet 解释到,他是著名的深层学习库 Keras 的构建者。他说:「目前的监督感知和强化学习算法需要大量的数据,在长远规划中是很难实现的,这些算法只能做简单的模式识别。」


相比之下,人类「从很少的案例中学习,可以进行长远规划,他们能够形成一种情境的抽象模型,并 [操纵] 这些模型实现极致的泛化。


即使是简单的人类行为,也很难教授给深度学习算法。例如我们需要学习在路上避免被汽车撞上,如果使用监督学习,那就需要巨量的汽车情境数据集,且明确标注了动作(如「停止」或「移动」),然后你需要训练一个神经网络来学习映射不同的情况和对应的行动。


如果采用强化学习,那你需要给算法一个目标,让它独立地确定理想的行动。为学习到在不同情况下躲避汽车,计算机可能需要先被撞上千次。Chollet 警告说:「仅仅通过扩大今天的深度学习技术,我们无法实现通用智能。


躲避汽车,人类只需要告知一次就行。我们具有从简单少量的例子中概括出事物的能力,并且能够想象(即模拟)操作的后果。我们不需要失去生命或肢体,就能很快学会避免被车撞上。


虽然神经网络在大样本量上达到统计学上令人惊讶成果,但它们「对个例不可靠」,并且经常会导致人类永远不会出现的错误,如将牙刷分类为棒球棒。



结果与数据一样好。输入不准确或不完整数据的神经网络将产生错误的结果,输出结果可能既尴尬又有害。在两个最出名的缺陷中,Google 图像错误地将非洲裔美国人分类为大猩猩,而微软的 Tay 在 Twitter 上学习了几个小时后,就出现了种族主义以及歧视女性的言论。


我们的输入数据中隐含有不期望的偏差。Google 的大规模 Word2Vec 嵌入是在 Google 新闻的 300 万字基础上建立的。数据集中含有诸如「男性成为医生,女性成为护士」这样的性别偏见关联。研究人员,如波士顿大学的 Tolga Bolukbasi,已经采取了在 Mechanical Turk 上进行人类评级的方式执行「hard de-biasing」来撤销这种关联。


这样的策略是至关重要的,因为根据 Bolukbasi 的说法,「词嵌入不仅反映了刻板印象,同时还会扩大它们」。如果「医生」代表的男性比女性更多,那么算法可能在开放医师职位上将男性求职者定义优先于女性求职者。


最后,生成对抗网络(GAN)的提出者 Ian Goodfellow 表明,神经网络可能被对抗性样本故意地欺骗。通过人眼不可见的方式在数学上处理图像,复杂的攻击者可以欺骗神经网络产生严重错误的分类。



深度学习之外是什么?


我们如何克服深度学习的局限性,并朝着通用人工智能迈进?Chollet 初步的计划包括使用「超级人类模式识别(如深度学习)增强显式搜索和正式系统」,并且他准备从数学证明的角度开始。自动定理证明(ATP)通常使用 brute force 算法进行搜索,而这很快就会导致在实际使用中的组合暴涨。在 DeepMath 项目中,Chollet 和他的同事们使用深度学习辅助证明搜索过程,他们模拟数学家的直觉,即使用哪一类引理(证明中的辅助或中间定理)证明可能是对的。


另一种方法是开发更加可解释性的模型。在手写字体识别中,神经网络目前需要对几万到几十万个样本进行训练才能得出较为优良的分类。然而,DARPA 的 Launchbury 并不仅仅关注像素,他解释道生成模型能学习在任何给定字符后面的笔画,并能使用这种物理结构信息来消除类似数字间的歧义,如 9 或 4。


卷积神经网络(CNN)的推动者,Facebook 的人工智能研究主管 Yann LeCun 提出了「基于能量的模型(energy-based models)」,该模型是克服深度学习限制的一种方法。通常,训练神经网络以得出单个输出,如照片分类标签或翻译的句子。而 LeCun 的基于能量模型(energy-based models)反而给出一整组可能的输出,如句子所有可能的翻译方式和每个配置的分数。


深度学习的推动者 Geoffrey Hinton 希望使用「capsules」代替神经网络中的神经元,他相信其能更准确地反映人类思维中的皮层结构。Hinton 解释道:「进化一定已经找到了一种有效的方法适应感知通路的早期特征,所以它们更有助于以后几个阶段的特征处理。」他希望 capsule-based 神经网络架构将更能抵抗 Goodfellow 上面所提到的对抗性样本攻击。


也许所有这些克服深度学习限制的方法都具有真实价值,也许都没有。只有时间和持续的人工智能研究才能拨开一切迷雾。 


原文地址:https://venturebeat.com/2017/04/02/understanding-the-limits-of-deep-learning/


  • 转载请联系公众号机器之心获得授权