专栏名称: 算法与数学之美
从生活中挖掘数学之美,在实践中体验算法之奇,魅力旅程,从此开始!
目录
相关文章推荐
九章算法  ·  终极版捡漏!大厂system ... ·  20 小时前  
算法爱好者  ·  OpenAI 急了!深夜血战 ... ·  2 天前  
九章算法  ·  Tech市场“新毒瘤”!华人噩梦即将降临! ·  3 天前  
九章算法  ·  一份百试不爽的《学霸记忆LeetCode刷题 ... ·  3 天前  
九章算法  ·  Meta开了个惊喜价…… ·  4 天前  
51好读  ›  专栏  ›  算法与数学之美

译文 | 改变机器学习游戏规则的三大趋势

算法与数学之美  · 公众号  · 算法  · 2017-04-22 21:59

正文

改变机器学习游戏规则的三大趋势

来源:中国云报 刘鹏看未来

编辑:Gemini


许多新的机器学习技术、架构和算法层出不穷,本文介绍了将改变机器学习领域游戏规则的三个宏观趋势。






机器学习、尤其是深度学习这一大主题是许多科技刊物竞相报道的最热门话题之一。炒作不可谓不闹猛,这个领域值得重点关注和报道有诸多充足的理由。仅举几个理由:


机器学习/深度学习的范围和影响已在众多学科的无数应用领域一再得到了体验和证明。广告、自动驾驶车辆、聊天机器人、网络安全、无人机、电子商务、金融技术、工业机械、医疗保健、市场营销、机器人和搜索引擎,这些只是受到机器学习/深度学习重大影响的几个关键领域而已。


机器学习/深度学习的好处不再只有买得起高端装备的少数精英群体才能享用。产品推荐工具和价位合理的聊天机器人在普通群体中流行起来,这点不可否认。明眼人都看得出来,机器学习/深度学习在一大批新的未开拓领域还有待发挥所长。


开发和部署机器学习/深度学习管道的成本在迅速下降。连最怀疑这种技术的人士只要分析一下其用途,也极有可能找到价值所在。

据机器学习/深度学习界的几位名人声称,深层神经网络“效果异常好”,尽管他们并不确信个中原委。这方面的前景不可限量。

 

深度学习领域在迅速演变,而且是在许多维度上演变。许多新的技术、架构和算法层出不穷,各自具有独特的价值。然而,我认为三个主要的宏观趋势未来几年会在机器学习领域真正改变游戏规则。


01

非监督学习的出现


机器学习/深度学习领域第一个、也是最重要的宏观趋势是,监督学习模式逐渐向非监督学习模式转变。


原来实施的机器学习/深度学习绝大多数是监督式学习系统。换句话说,只有被大量标记的训练数据加以训练,它们才有用。虽然监督式学习系统为我们提供了很好的服务,但收集和标记庞大数据集费时又费钱,还很容易出错。数据集规模变大后,这些挑战变得极其棘手。另一方面,非监督学习系统具有巨大的优势,因为它们不需要庞大的训练数据集,它们边训练边学习。这可以解释为什么机器学习方面的许多高级研究与非监督学习有关。


02

非生成式对抗网络


学习GAN基本原理的前提是,要了解生成式模型(generative model)和判别式模型(discriminative model)之间的区别。判别式模型指这种模型:使用标记的历史数据加以训练,并运用积累的知识来推断、预测或分类。


不妨以可识别各种汽车品牌和型号的图像识别模型为例。这种模型通常由一组预先识别的汽车图像加以训练,学习将各个特征(比如大小、高度、尺寸和比率)与某个特定的品牌和型号关联起来。一旦经过训练,该模型就能够分析新的、未标记的图像,并将它们与某个特定的汽车品牌/年份关联起来。


另一方面,生成式模型的工作方式不一样,它负责根据训练过程中获得的积累的洞察力,合成或生成新的结果。以汽车这个情况为例,设想一下:生成式模型在受到未标记的数据集(未识别的各种汽车的图像)训练后,负责创建一个全新的汽车概念。生成式模型使用训练图像来了解汽车类别(例如跑车、SUV和轿车)的独特特征,并运用该洞察力,提出一种同样具有该类别特征的新汽车概念。更准确地说,经过全面训练的生成式模型不会提出汽车头部类似跑车的一种新的卡车概念。


那么,生成式对抗网络(GAN)是什么?它在整个机器学习领域有着怎样的地位?GAN其实不是一种新的模型类别,它只是一种极其巧妙、高效的训练生成式模型的方法。这个优点减少了对庞大训练数据集的需要。


GAN通常使用充当对手的两个神经网络来构造。一个生成酷似有效样本的假样本。另一个网络(判别器网络)不断接收生成器网络发来的偶尔混有假样本的训练样本,负责将两种样本区别开来。这两个网络都是基于对手的性能来加以训练的,骗过对方的本领越来越高超。这个迭代过程的最终结果是,整个模型经受了更完备的训练;其优点在于,在外部干预最少的情况下进行了改进。

03

强化学习


机器学习原则上是通过实验和探索来学习。这有别于监督学习模式,因为后者依赖已知良好的训练数据,而强化学习(reinforcement learning)最初对“世界如何运转”几乎一无所知。强化学习基于三个基本要素,即“状态”(States)、“动作”(Actions)和“奖励”(Rewards),举例子有助于我们了解它们的重要性。

不妨假设一家网上运动衫商户使用强化学习来说服访客购买其产品。不妨在这种上下文中探究状态、行动和奖励的意义。一个独特的状态可能是这种情况:一个潜在的加拿大访客花两分钟来比较一件运动衫的各种颜色,并阅读了该产品的两则评论。另一方面,动作是指商户为说服潜在顾客实际购买而采取的动作(比如提供即时折扣,或名人穿着类似运动衫的照片)。在某个状态下运用动作导致转换到一个新状态。每次转换之后,基于成交概率的增加(或减小),奖励(或惩罚)强化学习。这里的关键是,强化学习最初一无所知,但随着时间的推移,它们学会选择在特定的状态(人口特征、环境和消费偏好)下效果最好的策略(动作序列)。


强化学习非常重要,这有两个原因。它们在诸如机器人、广告和游戏之类的一系列广泛的应用领域中具有显著效果。更重要的是,强化学习高度模仿人类大脑从婴儿到成年的演变。


这种飞跃让机器智能向接近人类智能更迈出了一步,让机器能够将感觉和直觉等软技能运用到学习上。


往期经典文章回顾:

  1. 第一个被认为“科学家”的人:泰勒斯

  2. 数学思维比数学运算更重要

  3. 二十世纪的十大科学骗局

  4. 瞎扯现代数学的基础

  5. x背后的轶闻趣事

  6. 主宰这个世界的10大算法

  7. 16个让你烧脑让你晕的悖论

  8. 机器学习中距离和相似性度量方法

  9. 传说中的快排是怎样的

  10. 玻璃秘史:一个人 改变了全世界

  11. 程序人生的四个象限和两条主线

  12. 比特币的原理及运作机制

  13. 概率论公式,你值得拥有

  14. 分类算法之朴素贝叶斯算法

  15. 采样定理:有限个点构建出整个函数



长按图片识别二维码

欢迎大家把独特见解分享出来,投稿邮箱:

[email protected]