专栏名称: 计算机视觉研究院
主要由来自于大学的研究生组成的团队,本平台从事机器学习与深度学习领域,主要在人脸检测与识别,多目标检测研究方向。本团队想通过计算机视觉战队平台打造属于自己的品牌,让更多相关领域的人了解本团队,结识更多相关领域的朋友,一起来学习,共同进步!
目录
相关文章推荐
上海证券报  ·  李乐成任工业和信息化部党组书记 ·  21 小时前  
上海证券报  ·  火爆开售!8999元起 ·  昨天  
上海证券报  ·  深夜公告!002575,并购优质资产 ·  2 天前  
中国证券报  ·  中金公司、中国银河,澄清 ·  2 天前  
51好读  ›  专栏  ›  计算机视觉研究院

深度学习的昨天、今天和明天

计算机视觉研究院  · 公众号  ·  · 2018-10-22 11:20

正文


机器学习是人工智能领域的一个重要学科。 自从20 世纪80 年代以来, 机器学习在算法、 理论和应用等方面都获得巨大成功。2006 年以来 机器学习领域中一个叫 深度学习 的课题开始受到学术界广泛关注, 到今天已经成为互联网大数据和人工智能的一个热潮。 深度学习通过建立类似人脑的分层模型 结构, 对输入数据逐级提取从底层到高层的 特征 很好地 建立从底层 信号 到高层 语义 映射 系。 年来, 谷歌、 微软、 IBM、 度等 拥有 大数据的高科 技公司相继投 入大 量资源进行 深度学习 研发 语音 图像、 然语言、 线 广 等领域取得 显著进展。 从对 实际 应用的 贡献 深度学习 是机器学习领域 最近这十 年来 成功的 研究 对深度学习 发展 的过 一个 全景式 并讨 论深度学习 挑战 及将 来的 能方 向。




2012年6月,《纽约时报》披露了谷歌的GoogleBrain项目,吸引了公众的广泛关注。这个项目是由著名的斯坦福大学的机器学习教授NG和在大规模计算机系统方面的世界顶尖专家Dean共同主导,用16000个CPU Core的并行计算平台训练一种称为“深度神经网络”(DNN)的机器学习模型,在语音识别和图像识别等领域获得了巨大的成功。2012年11月,微软在中国天津的一次活动上公开演示了一个全自动的同声传译系统,讲演者用英文演讲,后台的计算机一气呵成自动完成语音识别、英中机器翻译和中文语音合成,效果非常流畅.据报道,后面支撑的关键技术也是DNN,或者深度学习(deep learning,DL)。2013年的1月,在中国最大的互联网搜索引擎公司百度的年会上,创始人兼CEO李彦宏高调宣布要成立百度研究院,其中第一个重点方向的就是深度学习,并为此而成立Institute of Deep Learning(IDL)。这是百度成立10多年以来第一次成立研究院。2013年4月,《麻省理工学院技术评论》杂志将深度学习列为2013年十大突破性技术之首。

为什么深度学习受到学术届和工业界如此广泛的重视?深度学习技术研发面临什么样的科学和工程问题?深度学习带来的科技进步将怎样改变人们的生活?来回顾机器学习在过去20多年的发展,介绍深度学习的昨天、今天和明天。




机器学习的两次浪潮:从浅层学习到深度学习

在解释深度学习之前,我们需要了解什么是机器学习 机器学习是人工智能的一个分支,而在很多时候,几乎成为人工智能的代名词 简单来说,机器
学习就是通过算法,使得机器能从大量历史数据中学习规律,从而对新的样本做智能识别或对未来做预测 20 世纪 80 年代末期以来,机器学习的发展大致经历了两次浪潮:浅层学习和深度学习 需要指出是,机器学习历史阶段的划分是一个仁者见仁,智者见智的事情,从不同的维度来看会得到不同的结论 这里我们是从机器学习模型的层次结构来看的


第一次浪潮:浅层学习

20 世纪 80 年代末期,用于人工神经网络的反向传播算法( BP 算法)的发明,给机器学习带来了希望,掀起了基于统计模型的机器学习热潮 这个热潮一直持续到今天 人们发现,利用 BP 算法可以让一个人工神经网络模型从大量训练样本中学习出统计规律,从而 对未知事件做预测 这种基于统计的机器学习方法比起过去基于人工规则的系统 在很多方面显示出优越性 这个时候的人工神经网络 虽然也被称作多层感知机 由于多层网络训练的困难 实际使用的多数是只含有一层隐层节点的浅层模型

20 世纪 90 年代 各种各样的浅层机器学习模型相继被提出 比如支撑向量机 SVM ), Boosting 最大熵方法 比如 Logistic 回归 LR 这些模型的结构基本上可以看成带有一层隐层节点 SVM Boosting ), 或没有隐层节点 LR 这些模型在无论是理论分析还是应用都获得了巨大的成功 相比较之下 由于理论分析的难度 而且训练方法需要很多经验和技巧 这个时期多层人工神经网络反而相对较为沉寂 2000 年以来互联网的高速发展 对大数据的智能化分析和预测提出了巨大需求 浅层学习模型在互联网应用上获得了巨大的成功 最成功的应用包括搜索广告系统 比如谷歌的 Adwords 百度的凤巢系统 的广告点击率 CTR 预估 网页搜索排序 比如雅虎和微软的搜索引擎 )、 垃圾邮件过滤系统 基于内容的推荐系统 等等


第二次浪潮:深度学习

2006年,加拿大多伦多大学教授,机器学习领域的泰斗Hinton和他的学生Salakhutdinov在顶尖学术刊物《科学》上发表了一篇文章,开启了深度学习在学术界和工业界的浪潮。这篇文章有两个主要的讯息:1)很多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻划,从而有利于可视化或分类;2)深度神经网络在训练上的难度,可以通过"逐层初始化”来有效克服,在这篇文章中,逐层初始化是通过无监督学习实现的。

自2006年以来,深度学习在学术界持续升温。斯坦福大学、纽约大学、加拿大蒙特利尔大学等成为研究深度学习的重镇。2010年,美国国防部DARPA计划首次资助深度学习项目,参与方有斯坦福大学、纽约大学和NEC美国研究院。支持深度学习的一个重要依据,就是脑神经系统的确具有丰富的层次结构。一个最著名的例子就是Hubel-Wiesel模型,由于揭示了视觉神经的机理而曾获得诺贝尔医学与生理学奖。除了仿生学的角度,目前深度学习的理论研究还基本处于起步阶段,但在应用领域已经显现巨大能量。2011年以来,微软研究院和谷歌的语音识别研究人员先后采用DNN技术降低语音识别错误率20%~30%,是语音识别领域10多年来最大的突破性进展。2012年DNN技术在图像识别领域取得惊人的效果,在ImageNet评测上将错误率从26%降低到15%。在这一年,DNN还被应用于制药公司的Druge Activity预测问题,并获得世界最好成绩,这一重要成果被《纽约时报》报道。正如文章开头所描述的,今天谷歌、微软、百度等知名的拥有大数据的高科技公司争相投入资源,占领深度学习的技术制高点,正是因为他们都看到了大数据时代,更加复杂且更加强大的深度模型的能深刻揭示海量数据里所承载的负责而丰富的信息,并对未来或未知事件做更精准的预测。




大数据与深度学习

在工业界一直有一个很流行的观点:在大数据条件下,简单的机器学习模型会比复杂模型更加有效。比如说,在很多的大数据应用中,最简单的线性
模型得到大量使用。而最近深度学习的惊人进展促使我们也许到了要重新思考这个观点的时候。简而言之,在大数据情况下,也许只有比较复杂的模型,或者说表达能力强的模型,才能够充分发掘海量数据中蕴藏的丰富信息。现在我们到了需要重新思考“大数据+简单模型”的时候。运用更强大的深度模型,也许我们能从大数据中发掘出更多的有价值的信息和知识。

为了理解为什么大数据需要深度模型,先举一个例子。语音识别已经是一个大数据的机器学习问题,在其声学建模部分,通常面临的是十亿到千亿级别的训练样本。在谷歌的一个语音识别实验中,发现训练后的DNN对训练样本和测试样本的预测误差基本相当。这是非常违反常识的,因为通常模型在训练样本上的预测误差会显著小于测试样本。只有一个解释,就是由于大数据里含有丰富的信息维度,即便是DNN这样的高容量复杂模型也是处于欠拟合的状态,更不必说传统的GMM声学模型了。所以在这个例子里我们看出,大数据需要深度学习。

浅层模型有一个重要特点,就是假设靠人工经验来抽取样本的特征,而强调模型主要是负责分类或预测。在模型的运用不出差错的前提下(比如,假设互联网公司聘请的是机器学习的专家),特征的好坏就成为整个系统性能的瓶颈。因此,通常一个开发团队中更多的人力是投入到发掘更好的特征上去的。发现一个好的特征,要求开发人员对待解决的问题要有很深入的理解。而达到这个程度,往往需要反复的摸索,甚至是数年磨一剑。因此,人工设计样本特征,不是一个可扩展的途径。

深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。所以,“深度模型”是手段,“特征学习”是目的。区别于传统的浅层学习,深度学习的不同在于:1)强调了模型结构的深度,通常有5层、6层、甚至10多层的隐层节点;2)明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而分类或预测更加容易。

与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻划数据的丰富内在信息。所以,在未来的几年里,我们将看到越来越多的例子,深度模型应用于大数据,而不是浅层的线性模型。





深度学习的应用


语音识别

语音识别系统长期以来,描述每个建模单元的统计概率模型时候,大都是采用的混合高斯模型( GMM 这种模型由于估计简单,适合海量数据训练,同时有成熟的区分度训练技术支持,长期以来,一直在语音识别应用中占有垄断性地位 但是这种混合高斯模型本质上是一种浅层网络建模,不能够充分描述特征的状态空间分布 另外, GMM 建模的特征维数一般是几十维,不能充分描述特征之间的相关性 最后 GMM 建模本质上是一种似然概率建模,虽然区分度训练能够模拟一些模式类之间的区分性,但是能力有限

微软研究院的语音识别专家 Li Dong 2009 年开始和深度学习专家 Hinton 合作 2011 年微软基于深度神经网络的语音识别研究取得成果,彻底底改变了语音识别原有的技术框架 采用深度神经网络后,可以充分描述特征之间的相关性,可以把连续多帧的语音特征并在一起,构成一个高维特征 最终的深度神经网络可以采用高维特征训练来模拟的 由于深度神经网络采用模拟人脑的多层结果,可以逐级地进行信息特征抽取,最终形成适合模式分类的较理想特征 这种多层结构和人脑处理语音图像信息的时候,是有很大的相似性的 深度神经网络的建模技术,在实际线上服务时,能够无缝地和传统的语音识别技术相结合,在不引起任何系统额外耗费情况下大幅度地提升了语音识别系统的识别率 其在线的使用方法具体如下:在实际解码过程中,声学模型仍然是采用传统的 HMM 模型,语音模型仍然是采用传统的统计语言模型,解码器仍然
是采用传统的动态 WFST 解码器 但是在声学模型的输出分布计算时,完全用神经网络的输出后验概率除以一个先验概率来代替传统 HMM 模型中的 GMM 的输出似然概率 百度实践中发现,采用 DNN 进行声音建模的语音识别系统的相比于传统的 GMM 语音识别系统而言,相对误识别率能降低 25% 最终在 2012 11 月的时候,上线了第一款基于 DNN 的语音搜索系统,成为最早采用 DNN 技术进行商业语音服务的公司之一

国际上谷歌也采用了深度神经网络进行声音建模,和百度一起是最早的突破深度神经网络工业化应用的企业之一 但是谷歌产品中采用的深度神经网络有 4 5 层,而百度采用的深度神经网络多达 9 这种结构差异的核心其实是百度更好的解决了深度神经网络在线计算的技术难题,从而百度线上产品可以采用更复杂的网络模型 这将对于未来拓展海量语料的 DNN 模型训练有更大的优势。


图像识别


图像是深度学习最早尝试的应用领域 早在 1989 年, LeCun (现纽约大学教授)和他的同事们就发表了卷积神经网络( CNN )的工作 CNN 是一种带有卷积结构的深度神经网络,通常至少有2个非线性可训练的卷积层、2个非线性的固定卷积层(又叫 pooling layer )和1个全连接层,一共至少5个隐含层 CNN的结构受到著名的 Hubel-Wiesel 生物视觉模型的启发,尤其是模拟视觉皮层V1和V2层中 simple cell complex cell 的行为 在很长时间里, CNN 虽然在小规模的问题上,比如说手写数字,取得当时世界最好结果,但一直没有取得巨大成功 这主要原因是 CNN 在大规模图像上效果不好,比如像素很多的自然图片内容理解,所以没有得到计算机视觉领域的足够重视 这个情况一直持续到 2012 10 月, Hinton 和他的两个学生在著名的 ImageNet 问题上用更深的CNN取得世界最好结果,使得图像识别大踏步前进 Hinton 的模型里,输入就是图像的像素,没有用到任何的人工特征

这个惊人的结果为什么在之前没有发生?原因当然包括算法的提升,比如 dropout 等防止过拟合技术,但最重要的是 GPU 带来的计算能力提升和更多的训练数据 百度在 2012 年底将深度学习技术成功应用于自然图像 OCR 识别和人脸识别等问题,并推出相应的桌面和移动搜索产品,在 2013 年,深度学习模型被成功应用于一般图片的识别和理解 从百度的经验来看,深度学习应用于图像识别不但大大提升了准确性,而且避免了人工特征抽取的时间消耗,从而大大提高了在线计算效率 可以很有把握地说,从现在开始,深度学习将取代人工特征+机器学习的方法而逐渐成为主流图像识别方法

自然语言处理

除了语音和图像,深度学习的另一个应用领域问题自然语言处理( NLP 经过几十年的发展,基于统计的模型已经成为 NLP 的主流,但是作为统计方法之一的人工神经网络在 NLP 领域几乎没有受到重视 本文作者之一徐伟曾最早应用神经网络于语言模型 加拿大蒙特利尔大学教授 Bengio 等于 2003 年提出用 embedding 的方法将词映射到一个矢量表示空间,然后用非线性神经网络来表示 N-Gram 模型 世界上最早的深度学习用于 NLP 的研究工作诞生于 NEC Labs America ,其研究员 Collobert Weston 2008 年开始采用 embedding 和多层一维卷积的结构,用于 POS tagging Chunking Named Entity Recognition Semantic Role Labeling 4 个典型 NLP 问题 值得注意的是,他们将同一个模型用于不同任务,都能取得与 state-of-the-art 相当的准确率 最近以来,斯坦福大学教授 Manning 等人在深度学习用于 NLP 的工作也值得关注

总的来说,深度学习在 NLP 上取得的进展没有在语音图像上那么令人影响深刻 一个很有意思的悖论是:相比于声音和图像,语言是唯一的非自然信号,是完全由人类大脑产生和处理的符号系统,但是模仿人脑结构的人工神经网络确似乎在处理自然语言上没有显现明显优势?我们相信深度学习在 NLP 方面有很大的探索空间 2006 年图像深度学习成为学术界热门课题到 2012 10 Hinton ImageNet 上的重大突破,经历了 6 年时间 我们需要有足够耐心

搜索广告 CTR 预估

搜索广告是搜索引擎的主要变现方式,而按点击付费( cost per click CPC )又是其中被最广泛应用的计费模式 CPC 模式下,预估的 CTR p CTR )越准确,点击率就会越高,收益就越大 通常,搜索广告的pCTR是通过机器学习模型预估得到 提高 p CTR 的准确性,是提升搜索公司、广告主、搜索用户三方利益的最佳途径

传统上,谷歌、百度等搜索引擎公司以 LR 作为预估模型 而从 2012 年开始,百度开始意识到模型的结构对广告 CTR







请到「今天看啥」查看全文