专栏名称: 两个质子
我们是谁?我们从哪里来?我们到哪里去?一群为科学着迷的普通人,一群为生活着迷的科学家。我们就是两个质子。
51好读  ›  专栏  ›  两个质子

除了深度学习,你还应该关注这6大AI领域

两个质子  · 公众号  · 科学  · 2017-02-26 14:11

正文

因为深度学习最近在语音识别、图像识别等领域取得的突破,很多人都把人工智能与深度学习混为一谈。但深度学习只是AI的一方面,实际上还有其他一些AI的分支也正在取得进展,并且这些技术分支在很多领域都有极大的应用潜力。投资人Nathan Benaich系统地阐述了AI的6个值得关注的领域以及其潜在应用于相关的公司和研究人员,是分析和跟踪AI的一篇很好的介绍文章。

提炼出一个能被普遍接受的适合于人工智能(AI)的定义已经成为最近多次的话题之争。一些人把AI重新贴上“认知计算”或者“机器智能”的标签,而有的则不恰当地将AI和“机器学习”混为一谈。这部分是因为AI不是一种技术。实际上它是包含了从机器人到机器学习等许多学科的一个广泛领域。我们大多数人断言,AI的终极目标是开发出能执行以往属于人类智能范畴的任务以及认知功能的机器。为了实现这一点,机器必须能自动学习这些能力而不是对每一台机器进行端到端的显式编程。

从无人车到语音识别与合成,过去10年AI领域取得的进展之多令人赞叹。在此背景下,AI已经成为越来越多公司与家庭的讨论话题,他们认为AI作为一项技术不再需要20年的时间才能到来,而是认为这个东西现在已经在影响着自己的生活。的确,热门媒体几乎每天都会报道AI,而技术巨头都在接二连三地阐述自己重大的长期AI战略。尽管若干投资者和既有企业渴望理解如何在这个新世界中捕捉价值,但绝大部分还在抓破脑袋想搞清楚这一切到底意味着什么。与此同时,政府正在与社会自动化的潜在影响作斗争(参见奥巴马的告别演说)。

考虑到AI会影响到整个经济,这场对话的参与者代表了开发或使用AI系统的各种意图,不同的理解水平以及不同经验程度。同样地,一场有关AI的讨论,包括问题,以及据此获得的结论和建议等,这些东西应该以数据和事实而不是猜测为基础,这一点是至关重要的。发表的研究、技术新闻公告、推测性的评论以及思想实验把结果的潜在影响疯狂地外推实在是太容易了(有时候是太令人兴奋了!)。

以下是AI在对未来数字化产品和服务潜在影响能力方面尤其值得注意的6个领域。我将描述它们分别是什么,为什么重要,目前是如何应用的,同时还将提供攻关这些技术的公司和研究者的清单(但绝对不是详尽的)。

1、强化学习(RL)

强化学习是一种通过试错法学习的范式,其灵感源自人类学习新任务的方式。在典型的强化学习设定里面,一个代理会承担在数字化环境中观察其当前状态的任务,并采取能让自己被设定的累计长期奖励最大化的动作。作为每次动作的结果,代理从环境接收反馈,这样它就可以知道动作是促进还是妨碍了自己的进展。一个RL代理因此必须在对环境进行探索以找到累积奖励的优化策略与探索实现所要达到目标的最佳策略之间做出权衡。这种办法因为Google DeepMind在玩Atari和围棋(Alphago)游戏中的表现而变得流行。RL在现实世界的一个例子是Google数据中心在优化制冷效率当中的应用。Google的RL系统取得了将制冷成本降低40%的效果。在可模拟的环境(比如视频游戏)中采用RL代理的一个重要的天然优势是训练数据是可以生成的且成本极低。这与有监督的深度学习形成了鲜明对比,后者往往需要昂贵且在现实世界中很难获得的训练数据。

应用:多个代理以共同的模型在环境中以自己的实例进行学习,或者通过在相同环境下进行互动和相互学习,学习在像迷宫或者城市街道那样的3D环境下为无人车进行导航,运用逆向强化学习通过学习某个人物的目标来概括观察到的行为(比如学习驾驶或者赋予非玩家视频游戏角色以类似人类的行为)。

主要研究人员:Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare(Google DeepMind),Carl Rasmussen(剑桥大学),Rich Sutton(Alberta),John Shawe-Taylor(伦敦大学学院)等。

公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba/微软,NVIDIA,Mobileye。

2、生成模型

相对于用于分类或回归分析任务的判别模型,生成模型学习的是训练例子的概率分布。通过从这一高维分布中采样,生成模型可以输出新的类似与训练数据的例子。这意味着,比方说,基于真实脸部图像训练出来的生成模型可以输出类似脸部的合成图像。要想了解这些模型如何工作的细节,可参见Ian Goodfellow精彩的NIPS 2016指南文章。他介绍的生成对抗网络(GAN)架构,是目前研究界尤其热门的方向,因为这种架构提供了一条通往无监督学习的道路。GAN有两个神经网络:一个是生成器,它会以随机输入噪声作为输入,接受合成内容(比如图像)的任务;另一个是鉴别器,它会学习真正的图像看起来是什么样的,然后接受辨别由生成器创造的图像是真的还是假冒的。对抗训练可被看成是一个游戏,在这个游戏里面,生成器必须交替学习如何通过噪音来创造出逼真的图像,逼真到鉴别器再也无法分清真伪的地步。这一框架正在被延伸到许多数据形态和任务当中。

应用:模拟未来可能的时间序列(比如说强化学习的任务规划);超清晰图像;通过2D图像修复3D结构;对小型的带标签数据集进行归纳;从一个输入推出多个正确结果的软任务(比如预测视频的下一帧);在对话接口(如聊天机器人)中创建自然语言;加密;当并非所有数据都带标签时进行半监督学习;艺术风格的变换;合成音乐和语音;图像修复。

公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck*,Creative.ai,Gluru*,Mapillary*,Unbabel。

主要研究者:Ian Goodfellow(OpenAI), Yann LeCun和Soumith Chintala(Facebook AI Research), Shakir Mohamed和A?ron van den Oord(Google DeepMind), Alyosha Efros(Berkeley)等。

3、带记忆的神经网络

为了让AI能像我们人类一样归纳不同的现实世界环境,它们必须能够不断学习新任务并记住如何在未来执行所有这些任务。然而,传统神经网络一般都不能记住此类任务序列。这一缺点的术语叫做灾变性失忆(catastrophic forgetting)。之所以会发生这种情况,是因为在一个神经网络中对于解决任务A很重要的权重在该网络随后受训解决任务B时会发生变化。

不过有若干强大的架构能赋予神经网络不同程度的记忆功能。这些就包括了长短期记忆人工神经网络(LSTM,递归神经网络的派生),这种网络能处理和预测时间序列;为了自行学习复杂数据结构并在其中导航,DeepMind的可微神经计算机结合了神经网络和内存系统,学习的弹性权重合并(elastic weight consolidation)算法,视之前在任务中的重要性不同,这种算法可放慢特定权重的学习;渐进性神经网络( progressive neural networks),这种神经网络可以学习任务相关模型的横向联系,从而从此前学过的神经网络中析取出有用的功能来执行新任务。







请到「今天看啥」查看全文