分享人:王华东,作者:Roger Parloff,编译: box,来源:财富杂志
过去三年中对人类社会影响最大的技术浪潮无疑是人工智能,而为人工智能的发展带来突破性拐点的当属深度学习。眼下,Google、Amazon、Facebook、微软、IBM 等各大技术巨头已在不遗余力地推进深度学习的研发和落地,更有大量优秀的初创公司崭露头角。
深度学习是什么?其发展路径和关键时刻有哪些?未来可能如何演进?分享《财富》杂志刊登的这篇深入浅出的文章,希望对你有所启发。
过去 4 年,读者无疑已经注意到大范围的日常技术在质量方面已经取得了巨大突破。
其中最明显的就是我们智能手机上的语音识别,它的功能已经比过去好得多了。当我们用语音命令打电话给配偶时已经能联系上对方了。因为接线的不是美国铁路局或者一头愤怒的公牛。
实际上,我们现在越来越只需跟计算机讲话就能实现互动,对方也许是 Amazon 的 Alexa,苹果的 Siri,微软的 Cortana 或者 Google 的众多语音响应功能。百度称,过去 18 个月其客户语音接口的使用量已经增至原来的 3 倍。
机器翻译等其他形式的语言处理也变得更加令人信服,Google、微软、Facebook 和百度每月都会 get √ 新的技能。Google 翻译现在为 32 个语言对提供语音翻译,为 103 种语言提供文本翻译,其中不乏宿务语、伊博语、祖鲁语等略微生僻的语言。Google 的收件箱现在已经为所有来信准备了 3 种回复。
然后还有图像识别方面的进展。上述 4 家公司都有无需识别标签即可让你搜索或者自动组织相片集的功能。你可以要求把有狗、有雪的照片都显示出来,甚至连拥抱这样相当抽象的概念也难不倒它。这些公司还都在做类似的产品原型,可以在数秒钟之内生成句子长度的照片描述。
想想吧。要想收集有狗的照片,App 必须识别很多种狗,从吉娃娃到德国牧羊犬,而且无论照片是倒置还是部分模糊,无论是在左边还是右边,不管是大雾还是下雪,是阳光普照还是在林荫底下,App 都不应该识别不出小狗。与此同时还得排除掉狼和猫等。光靠像素的话这怎么可能做到呢?
人工神经网络如何识别照片中的小狗?
1)训练阶段会提供大量带标签的各种动物图像给神经网络,让后者学会进行分类;
2)输入:提供一张不带标签的图片给经过训练的神经网络;
3)第一层:神经元对不同的简单形状如边缘进行响应;
4)更高层:神经元对更复杂的结构进行响应;
5)顶层:神经元对我们会识别为不同动物的高度复杂、抽象的概念进行响应。
图像识别的进展远不仅限于那些看起来很酷的社交 App 上。医疗初创企业宣布它们很快就可以用计算机来读 X 光片、MRI(核磁共振图像)以及 CT 扫描,而且跟放射科医生相比,它们不仅速度更快结果还更加精确,可以更早创伤更少地诊断癌症,并且加速拯救生命的药物的寻找工作。更好的图像识别对于机器人学、无人机以及无人车(福特、Tesla、Uber、百度、Google 等都在路测自己的无人车原型)等方面的技术改进至关重要。
但大多数没有意识到的是,所有这些突破在本质上其实都是同一个突破。它们都是靠一组热门人工智能技术取得的,这种技术的名字叫做深度学习,但大多数科学家更愿意用它最初的学术名称:深度神经网络。
神经网络最引人瞩目的点是计算机并没有经过任何的人工编程即可实现上述功能。当然,实际上也没有人能够通过编程来实现那些功能。程序员只是给计算机提供了一种学习算法,让它观察上 TB 的数据——也就是训练计算机,让它自行找出如何识别所需对象、单词或者句子的办法。
简而言之,现在这些计算机可以自学了。Nvidia CEO 黄仁勋说:“基本上这相当于写软件的软件。” Nvidia 是图形处理器的市场领导,在 5 年前开始大规模押注于深度学习。
神经网络并不是什么新事物。这一概念最早可以追溯到 1950 年代,而许多的关键算法突破试着 1980 年代和 1990 年代才取得的。变的是现在的计算机科学家终于有了海量的计算能力,以及庞大的数据仓库——互联网上充斥着各种图像、视频、音频以及文本文件——结果表明,这些东西对于跑好神经网络必不可少。VC 机构 A16Z 的合伙人 Frank Chen 说:“这就是深度学习的寒武纪大爆发。”他用大部分较为高等的动物突然出现的地质时代来类比深度学习取得的进展。
这一飞速发展激发了一系列活动爆发。据 CB Insights 的数据,上季度对 AI 初创企业的股权融资达到了 10 亿美元的历史新高。2016 年 Q2 共进行了 121 轮相关初创企业融资,相比之下 2011 年同期只有 21 起。在此期间,AI 方面的投资超过了 75 亿美元——其中超过 60 亿美元是 2014 年以来进行的。(9 月末,AI 的五大巨头—— Amazon、Faebook、Google、IBM 以及微软成立了非盈利的 AI 组织,旨在推动公众对该话题的理解,并就相关的道德和最佳实践开展研究)
2012 年时 Google 开展的深度学习项目只有 2个。据一位发言人表示,现在它正在推进的相关项目已超过 1000 个,涵括了包括搜索、Android、Gmail、翻译、地图、YouTube 以及无人车在内的所有主流产品范畴。IBM 的 Watson 也应用 AI,但它 2011年击败两位 Jeopardy 智力竞赛人类冠军时用的不是深度学习。不过据 Watson CTO Rob High 说,现在 Watson 几乎所有 30 项服务都已经增加了深度学习能力。
5 年前几乎还不知道深度学习是什么的 VC,现在个个对没有这项技能的初创企业都非常谨慎。Chen 观察到:“我们已经处在这样一个时代,即开发复杂软件应用已经成为必须。”他说大家很快就会需要软件这样:“‘你的自然语言处理版(软件)在哪里?’‘我怎么才能跟你的 App 对话?因为我不想通过菜单点击。’”
一些公司已经在把深度学习集成进自己的日常流程当中。微软研究院负责人 Peter Lee 说:“我们的销售团队正在利用神经网络推荐该联络哪一位潜在客户,或者作出什么样的产品推荐。”
硬件界已经感受到这种震动。让所有这一切成为可能的计算能力发展不仅仅是得益于摩尔定律的延续,而且还有 2000 年代末 Nvidia 做出图形处理器的帮忙——这种强大的芯片原本是为了给玩家提供丰富的 3D 视觉体验——但大家意外发现,在深度学习计算方面,其效率要比传统 CPU 高出 20 到 50 倍。今年 8 月,Nvidia 宣布其数据中心业务的季度收入与去年同比已经翻了一番多,达 1.51 亿美元。其 CFO 告诉投资者“目前为止绝大部分增长来自于深度学习。”在时长 83 分钟的电话会当中,“深度学习”这个词就出现了 81 次。
芯片巨头英特尔也没有闲着。过去 2 个月它一口气(以超过4亿美元)收购了Nervana Systems 和 Movidius(价格未披露),这两家公司的技术都是针对不同阶段的深度学习计算量身定制的。
至于 Google,今年 5 月,它披露了自己已经秘密采用自行设计的定制芯片 TPU(Tensor Processing Unit)一年多了,这种芯片正是给经深度学习训练的应用使用的。(Tensor 是类似矩阵一样的数组,在深度计算中往往要进行相乘运算)
的确,企业可能已经到达了另一个拐点。百度首席科学家吴恩达说:“在过去,许多标普 500 强 CEO 希望自己能早点意识到互联网战略的重要性。我想从现在开始的今后 5 年也会有一些标普 500 强 CEO 后悔没有早点思考自己的 AI 战略。”
其实在吴恩达看来,互联网这个比喻已经不足以形容 AI 及深度学习的隐含意义。他说:“AI 就是新的电力。仅仅 100 年前电力变革了一个又一个行业,现在 AI 也会做同样的事情。”
可以把深度学习视为一个子集的子集。“人工智能”涵括的技术范围很广——比如传统的逻辑学、基于规则的系统——这些能帮助计算机和机器人至少用类似思考的方式解决问题。在这个领域里面还有一个更小一点的类别叫做机器学习,这是一整个神秘但又重要的数学技术工具箱的总称,它可以帮助机器改进需要经验的任务表现。最后,在机器学习这个门类当中还有一个更小的子集叫做深度学习。
吴恩达说,我们可以把深度学习看做是“从 A 到 B 的映射。你可以输入一段音频剪辑然后输出脚本。这就是语音识别。”他强调,只要你有可以训练软件的数据,就有无限可能:“你可以输入电子邮件,而输出可以是:这是垃圾邮件吗?”输入贷款申请,输出可能是目标客户偿还贷款的可能性。输入车队的使用模式,输出可以是发车去到哪里的建议。
人工智能术语表
人工智能
AI 是个广义概念,用于任何让计算机模仿人类智能、利用逻辑、假定规则、决策树以及机器学习(含深度学习)的技术
机器学习
含有深奥的统计技术的 AI 子集。这种统计技术可让机器改进需要经验的任务。深度学习属于机器学习。
深度学习
机器学习子集包括了让软件可以训练自己执行任务(如云和图像识别)的算法,手段是让多层神经网络接受海量数据。
在这样的愿景下,深度学习几乎可以变革任何行业。Google Brain 项目负责人 Jeff Dean 说:“将会发生的根本性改变是现在计算机视觉真正可以工作了。”或者用他的话说:“现在计算机已经睁开了它们的眼睛。”
这是否意味着是时候拥抱“奇点”了呢?(所谓奇点是指这样的一个假设时刻,到那时超智机器将可以在无需人类干预的情况下自我改进,从而引发一个逃逸周期,导致进化缓慢的人类被抛开得越来越远,产生恐怖的后果)
还没有。神经网络擅长模式识别——有时候表现得跟我们人类一样好甚至更佳。但它们不懂推理。
即将发生的革命的第一个火花是在 2009 年开始闪烁的。那年夏天,微软研究院邀请了神经网络先驱,多伦多大学的 Geoffrey Hinton 前往参观。由于对他的研究感到印象深刻,Lee 的团队开始试验用神经网络进行语音识别。Lee 说:“我们被结果惊到了。我们用非常早期的原型就实现了精确度提高 30%。”
据 Lee 说,2011 年,微软把深度学习技术引入到自己的商用语音识别产品上。2012 年,Google 开始跟进。
但是真正的转折点发生了 2012 年 10 月。在意大利佛罗伦萨的一场研讨会上,斯坦福 AI 实验室负责人,著名的计算机视觉竞赛 ImageNet 创始人李飞飞宣布,Hinton 的两位学生已经发明了一种软件,这种软件识别对象的精确率几乎是最接近对手的 2 倍。Hinton 认为“这是一个非常惊人的结果,令此前许多对此表示质疑的人都信服了。”(去年的竞赛上一家深度学习的参赛选手已经超越了人的识别率。)
攻破图像识别打响第一枪,这激起了一场人才争夺战。Google 把 Hinton 和赢得那场竞赛的两名学生都请了过来。Facebook 签下了法国的深度学习创新者 Yann LeCun,他在 1980 年代和 1990 年代是赢得 ImageNet 竞赛的某种算法的先驱。而百度则抢下了吴恩达。吴曾是前斯坦福 AI 实验室的负责人,2010 年曾帮助推出并领导了以深度学习为核心的 Google Brain 项目。
此后这场人才争夺战开始变本加厉。微软研究院的 Lee 说,今天“这个领域正在上演一场抢夺人才的血腥战争。”他说这方面顶级人才的报价“堪比一线的 NFL 选手。”
现年 68 岁的 Geoffrey Hinton 是在 1972 年的时候第一次听说神经网络的,当时他正在爱丁堡大学做人工智能方向的毕业设计。在剑桥大学学习了实验心理学之后,Hinton 开始狂热地恋上了神经网络,这是一种灵感源自大脑神经元工作方式的软件设计。在当时,神经网络还没有得宠。他说:“每个人都认为这种想法疯了。”但 Hinton 仍然坚持他的努力。
神经网络有望让计算机像小孩一样从经验而不是通过人工定制编程的繁杂指令来学习。他回忆道:“那时候大部分的 AI 都是逻辑启发的。但逻辑是大家很晚才学会的东西。2、3 岁的小孩是不懂逻辑的。所以在我看来,就智能的工作方式而言,相对于逻辑,神经网络是一种要好得多的范式。”
在 1950 和 1960 年代,神经网络在计算机科学家当中非常流行。1958 年,康奈尔大学心理研究学家 Frank Rosenblatt 在一个项目中首次搭建了神经网络原型,他把这个得到海军资助的项目叫做 Perceptron。项目使用的穿孔卡片计算机体型巨大,占满了整整一个房子。经过 50 次试验之后,它学会了区分在左右侧做记号的卡片。当时的《纽约时报》是这么报道此事的:“海军披露了一台电子计算机的雏形,将来这台计算机预期可以走路、说话、写字以及复制自己,并且能意识到自己的存在。”
结果证明,软件只有一层神经元式节点的 Perceptron 能力有限。但是研究人员认为,如果是多层,或者叫做深度神经网络的话就可以实现更多的东西。
Hinton 是这样解释神经网络的基本思路的。假设一个神经网络正在解析一幅有几只鸟在里面的摄影图像。“那么输入就是像素的形式,而第一层单元就会检测边缘。边缘的一边是黑的,另一边是亮的。而下一层神经元则会对第一层发送过来的数据进行分析,学会检测“像棱角这样的东西,也就是两个边缘合成了一个角度。”比方说,这些神经元的其中一个可能会对鸟嘴的角做出强烈响应。
下一层“可能会寻找更复杂的结构,比如围成圆圈的一组边缘。”这一层的神经元可能会对鸟的头部做出响应。再高一层的神经元可能会在类似头部的圆圈附近检测鸟嘴状的角。Hinton 说如果发现的话“这可能是鸟头相当好的线索。”每一个更高层的神经元都会对更复杂抽象的概念做出响应,直到最顶层相当于我们“鸟类”概念的其中一个神经元给出答案。
然而,要想学习的话,深度神经网络需要的不仅仅是按照这种方式在各层间传递消息。它还需要想办法看看自己是否在顶层获得了正确的答案,如果没有的话,就要向下返回消息,以便低层的类神经元单元可以调整自己的激活状态来改进结果。学习就是这样发生的。
1980 年代早期时,Hinton 正在对此问题进行攻关。同样在努力的还有一位法国的研究人员,他的名字叫做 Yann LeCun,当时他刚在巴黎开始自己的毕业设计。LeCun 无意间发现了 Hinton 1983 年的一篇论文,里面谈的正是多层神经网络。LeCun 回忆道:“那些术语都没有正式提及,因为在当时要是提到‘神经元’或者‘神经网络’的话论文都很难发表。所以他用一种比较含糊的方式写了那篇论文,好通过评委审查。不过我认为那篇论文超级有趣。”两年后两人见面并一拍即合。
深度学习史的关键时刻,1989 至 1997 年:
1)1989 年,当时在贝尔实验室的法国研究学者 Yann LeCun 开始了一种神经网络的基础性工作,这种神经网络后来成为了图像识别的关键;
2)1991 年,德国研究学者 Sepp Hochreiter 和 Jürgen Schmidhuber 开创了一种带记忆功能的神经网络,后来证明这种神经网络用于自然语言处理尤其出色;
3)1997 年,IBM 的深蓝超级计算机用传统AI技术击败了国际象棋世界冠军卡斯帕罗夫。
1986 年,Hinton 与两位同事写出了一篇原创性的论文,他们在论文中给出了错误修正问题的算法解决方案。LeCun 说:“他的论文基本上奠定了第二波神经网络浪潮的基础。”此文再次点燃了对该领域的兴趣。
1988 年,师从 Hinton 攻读完博士后之后,LeCun跑到了贝尔实验室,此后 10 年,他完成的基础性工作至今仍为大多数的图像识别任务使用。在 1990 年代,当时还是贝尔实验室子公司的 NCR 把一台采用神经网络的设备给商用化了,该设备在银行得到了广泛应用,据 LeCun 说,它可以识别支票上的手写数字。与此同时,两位德国的研究学者,现在在林茨大学的 Sepp Hochreiter 以及瑞士 AI 实验室主任 Jürgen Schmidhuber 独立做出了一种不同的算法,这一算法在 20 年后的今天成为了自然语言处理应用的关键。
尽管取得了所有这些跃进,但到了 1990 年代中期,因为受制于当时的计算能力,神经网络又再度失宠,被其他更高效的机器学习工具抢走了风头。这一情况持续了将近 10 年,直到计算能力又提升了 3 到 4 个数量级以及研究人员发现了 GPU 加速的秘密之后才开始改观。
深度学习史的关键时刻,1990 年代至 2011 年:
1)1990 年代中期,神经网络被其他机器学习技术抢走了风头;
2)2007 年,李飞飞创立了 ImageNet,开始汇编一个带标记图像多达 1400 万的数据库用于机器学习研究;
3)2011 年,微软引入神经网络来进行语音识别;
4)IBM 的 Watson 用 AI 击败了两位 Jeopardy 智力竞赛冠军。
但还缺了一样东西:数据。尽管互联网充斥着各种数据,但大部分数据——尤其是图像数据——都没有标记,而标记是训练神经网络之需。幸好有斯坦福 AI 教授李飞飞的适时介入。她在一次接受采访时说:“我们的愿景是大数据将改变机器学习的运作方式。数据驱动学习。”
2007 年,她推出了 ImageNet,这个免费数据库涵括了超过 1400 万张带标签的图片。2009 年 ImageNet 上线,次年她创立了一项一年一度的竞赛来激励并发布计算机视觉方面的突破。
到了 2012 年 10 月,当 Hinton 的两位学生赢得该项竞赛时,情况已经变得了然:深度学习来了。
深度学习史的关键时刻,2012 至 2013 年:
1)2012 年 6 月,Google Brain 发布了“猫实验”的结果,它的一个神经网络在观察了 1000 万张不打标签的 YouTube 图像之后,自我训练出识别猫的本领;
2)8 月,Google 引入神经网络进行语音识别;10 月,Hinton 的两名学生设计的神经网络以绝对优势赢得了 ImageNet 竞赛胜利;
3)2013 年 5 月,Google 用神经网络改进了照片搜索功能。
此时公众也多少听说过一点深度学习的事情了,不过原因是另一个事件。2012 年 6 月,Google Brain 发布了一个略为怪异的项目的结果,这个项目也就是现在俗称的“猫实验”。实验结果在公众当中引起了有趣的共鸣,一下子在社交网络中流行起来。
这个项目实际上探索了深度学习的一个悬而未决的问题,即所谓的“无监督学习”。目前商用的几乎所有深度学习产品采用的都是“有监督学习”,这意味着神经网络是利用带标签数据(比如 ImageNet 汇编的那些图像)来训练的。相反“无监督学习”模式下,神经网络拿到的是不带标签的数据,它要通过观察来寻找重复模式。研究人员将来肯定想掌握无监督学习,因为到那时候机器就可以通过目前无用的海量数据来自行了解世界——也就是说几乎仅凭一己之力来弄懂世界,就像婴儿一样。
深度学习史的关键时刻,2014 至 2016 年:
1)2014 年 1 月,Google 以 6 亿美元收购了 DeepMind,一家结合了深度学习与强化学习的初创企业;
2)2015 年 12 月,微软的一个团队利用神经网络在 ImageNet 挑战中胜过了人类;
3)2016 年 3 月,DeepMind 的 AlphaGo 用深度学习以 4 胜 1 负的战绩击败了围棋世界冠军李世乭。
在猫实验中,研究人员给一个大规模的神经网络(超过 1000 台计算机组成)展示了从 YouTube 视频随机截取的的 1000 万张未打标签的图像,然后就让软件自己折腾。等一切尘埃落定时,他们检查了最高层的神经网络,发现其中一个对猫的图片做出了强烈响应。当时是 Google Brain 项目领导的吴恩达说:“我们还发现一个神经元对人脸做出了非常强烈的响应。”
但是结果也令人困惑。比方说,“我们并没有发现有神经元做出强烈响应,还有大量神经元我们没法分配英语单词。所以这事儿挺难的。”
这次实验引起了轰动。但无监督学习仍然没有解决——这个挑战被留给未来。
不奇怪的是,迄今为止大部分商用的深度学习应用都是 Google、微软、Facebook、百度以及 Amazon 这样的大公司的——这些公司掌握了深度学习计算必须的海量数据。许多公司在试着开发更现实且有帮助作用的“聊天机器人”,一种自动化的客服代表。
深度关注深度学习的四大巨头
GOOGLE
2011 年 Google 推出了聚焦深度学习的 Google Brain 项目,并在 2012 年中引入神经网络用于语音识别产品,2013 年 3 月,他们招来了神经网络的先驱 Geoffrey Hinton。现在 Google 进行中的相关项目超过了 1000 个,范围涵括搜索、 Android、Gmail、照片、地图、翻译、YouTube 以及无人车。2014 年,Google 收购了 DeepMind,今年 3 月,其深度强化学习项目 AlphaGo 击败了围棋世界冠军李世石,这是人工智能的一次里程碑事件。
微软
2011 年上半年,微软把深度学习引入到自己的商用语音识别产品里面,其中包括了 Bing 语音搜索以及 X-Box 语音命令。该公司的搜索排名,照片搜索、翻译系统等现在都用上了神经网络。Lee 说:“很难用语言表达出它所产生的普遍影响。”去年微软赢得了一项关键的图像识别竞赛胜利,今年 9 月,微软实现了有史以来最低的语音识别错误率:6.3%。
FACEBOOK
2013 年 12 月,Facebook 聘任法国神经网络创新者 Yann LeCun 来领导其新的 AI 研究实验室。Faebook 利用神经网络来翻译每天超过 40 种语言的约 20 亿帖子,并称它的翻译每天有 8 亿用户使用。(约一半 Facebook 用户不讲英语)Facebook 还利用神经网络进行照片搜索和组织,目前还在攻关一项功能,替视力受损者生成未标记照片的语音标题。
百度
2014 年 5 月,百度挖来了 Google Brain 项目负责人吴恩达领导自己的研究实验室。百度的语音识别、翻译、照片搜索以及无人车项目都利用了神经网络。在中国这个移动优先且汉语难以输入的国度里,语音识别是关键。百度称,过去 18 个月语音接口的使用量已经增加到原来的3倍。
像 IBM、微软这样的公司也在帮助商业客户在自身业务中采用有深度学习支持的应用——比如语音识别接口和翻译服务,而像 AWS 这样的云服务则提供了廉价的 GPU 驱动的深度学习计算服务——比如 Caffe,Google 的 TensorFlow,以及 Amazon 的 DSSTNE,这些给创新过程起到了润滑剂的作用,因为基于开放发表的规范做法,许多研究人员不等同行评审通过就马上在一个数据库上发布结果了。
许多最令人兴奋的深度学习应用尝试发生在医疗领域。A16Z 负责生物投资的 Vijay Pande 说,我们已经知道神经网络非常擅长图像识别,“而医生做的很多事情都跟图像识别有关,无论是放射科、皮肤科、眼科等等都得看片。”
深度学习与医疗
初创企业 Enlitic 利用深度学习分析 X 光照片、CT 以及 MRI 扫描结果。其 CEO Igor Barani 是前加州大学放射肿瘤学教授,他说在检测和区分肺结节是良性还是恶性方面,Enlitic 的算法表现比 4 位放射科医生都要好。
Merck 试图利用深度学习加速药物发现,旧金山初创企业Atomwise 也有相同的想法。神经网络能检查 3D 图像(这些图像里面有成千上万的分子可能可以成为药物的候选),并且预测它们在阻断病原体机制的适合度。这些公司正在利用神经网络来改进人所做的事情;有的甚至能做人所不能为。27岁的计算生物学博士 Gabriel Otte 创办了 Freenome,旨在通过血样诊断癌症。它会在血液中检查死亡后被细胞喷出的 DNA 片段。他利用深度学习让计算机找到脱细胞 DNA 与某些癌症之间的关联。Otte 说:“我们看到了一些此前癌症生物学家尚未归类的新颖特征。”
放射科医生一生可能会看成千上万张 X 光片,但计算机的观看量却可以百万计。Pande 说:“计算机能更好地解决这一图像问题并不难以想象,因为它们消化吸收的数据比人多太多了。”
其潜在优势不仅仅是精确度更好分析更快,还包括分析的大众化。随着技术成为标准,最终所有病人都将受益。
当深度学习以尚未想到的方式集成到其他人工智能技术的整个工具箱时,我们也许就能感受到它的最大影响。比方说,Google 得到 DeepMind 通过结合深度学习和强化学习就已经取得了令人吃惊的结果。这两者结合的产物 AlphaGo 在今年 3 月击败了围棋世界冠军李世石,被广泛认为是人工智能里程碑式的成就。AlphaGo 跟 1997 年击败国际象棋冠军卡斯帕罗夫的 IBM 深蓝不一样,它既没有决策树方面的编程,也没有如何评估棋盘位置的方程式,或者是假定的规则。DeepMind CEO DemisHassabis 说:“AlphaGo 基本上是靠左右手互搏和观察职业棋局来下棋。”(训练期间 AlphaGo 跟自己下了 100 万盘棋)
游戏也许看起来像是一种人为设置。但 Hassabis 认为同样的技术可以运用到现实世界问题上。实际上,今年7月 Google 报告称,通过利用类似AlphaGo的技术,DeepMind 把 Google 数据中心的能效提升了 15% 。Hassabis 说:“数据中心可能有 120 个不同的变量。你可以改变风扇、打开窗户、改变计算机系统,这些都是耗电的地方。你从传感器、温度计等获得数据。这就像围棋一样。通过试错,你可以学会怎么走才对。”
“所以这是很好的。你每年可以节省上千万美元,而且对环境也很好。全球的数据中心消耗了大量电能。现在我们打算进一步铺开。甚至应用到国家电网这种规模。”
李彦宏的AI世界观 / 马云的新零售
ofo战上海:免押金成新杀手锏
58同城的增量思维 / VIVO的情怀之路
淘宝打假 / 百度内容战略
京东为什么春节不打烊 / 微博如何弯道超车
IDG的情怀 / 巴菲特的最佳投资
生鲜电商下半场 / 《最强大脑》人机大战的意义
美团点评“她经济” / 共享租车
网易美学 / 海尔智能家居
智能家居大蓝海