专栏名称: 产业智能官
用新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能),在场景中构建状态感知-实时分析-自主决策-精准执行-学习提升的认知计算和机器智能;实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链。
目录
相关文章推荐
英国大家谈  ·  250万人民币葡萄牙护照到手! ·  2 天前  
建E室内设计网  ·  私宅设计:800㎡自然风别墅,心灵栖息的世外桃源! ·  2 天前  
建E室内设计网  ·  建E首发 | UHOUSE ... ·  4 天前  
gooood谷德设计网  ·  昆明招聘 | 素造建筑 SUZAO – ... ·  3 天前  
51好读  ›  专栏  ›  产业智能官

【神经网络】怎样设计最优的卷积神经网络架构?卷积神经网络的训练过程

产业智能官  · 公众号  ·  · 2019-08-09 05:36

正文


怎样设计最优的卷积神经网络架构?| NAS原理剖析

原创: 磐石001 磐创AI

来源 | Medium

译者 | 磐石001

虽然,深度学习在近几年发展迅速。 但是,关于如何才能设计出最优的卷积神经网络架构这个问题仍在处于探索阶段。

其中一大部分原因是因为当前那些取得成功的神经网络的架构设计原理仍然是一个黑盒。 虽然我们有着关于改进神经网络表现的丰富心得,但其实并没有真正了解神经网络是如何达到当前这么优秀的表现。

关于CNNs的一些线索

我们从如下几点开始剖析。 近期研究提供了一些具体地证据证明这几点确实可以用来提升CNN的表现:

  • 增加图像分辨率

  • 增加网络深度

  • 增加网络宽度

  • 增加跳过连接(密集块或残差块)

经验表明,以上几种方式是使得CNN之所以取得最优结果的关键。 增加图像的分辨率可以“喂养”网络更多的信息去学习; 增加网络宽度与深度使网络学习到更多的参数。 另外,增加“跳过连接”可以增加网络的复杂性,从而增强网络的表征能力。

密集连接块(DenseNet)

一个宽网络上的跳过连接(ResNext)

神经架构搜索

NAS是一种寻找最优神经网络架构的算法。 绝大多数NAS算法工作原理类似。

首先,定义一组适用于我们网络的“构建块”。 然后,尝试以不同的方式组合这些“构建快”进行训练。 通过这种试错方式,NAS算法最终能够确定哪一种“构建快”与哪一种网络配置可以得到最优结果。

事实证明,这种方法行得通且可以找到最优的预测效果。 如NASNet的论文中所示,可以组合出一些奇怪的结构。 如下:

通过NAS算法发现的NASNEt块

这也正是NAS的伟大之处之一,可以让我们发现一些之前还未探索过的网络结构。

然而,它也有自己的局限性。 由于其从一组固定的“构建快”开始采样和进行组合,所以我们将不能通过此算法发现新的构建块。 跳过连接也是如此,NASNet只允许含有一次下采样的跳过连接,但其他类型的连接也同样值得尝试。

Facebook的人工智能研究团队通过“随机连接神经网络(randomly wired neural networks)”对NAS进行新的尝试。 它们的动机是: 如果“架构搜索”在固定的块和连接上表现得很好,那么在更大的搜索空间下(例如: 随机连接)将会产生一些更优的配置。

随机连接神经网络

由于论文作者想要专门研究神经网络的连接方式,所以他们对网络结构做了如下限制:

  • 网络输入尺寸为224x224

  • 网络块始终为ReLU-Conv-BatchNorm三项组形式。且三项组中的卷积都是参考自Xception结构中使用的3x3可分离卷积。

  • 多组张量的聚合(例如当跳过连接与原连接进行聚合时)均以加权和的方式进行聚合。这些权重具有可学习性与可持续更新性。

  • 网络组成总是保持一致。 一般的CNN结构是由多个卷积块组成,然后通过多次向下采样,直到最终的softmax分类层。 这也已经成为网络设计的标准。 在这些研究实验中均采用了这种范式。

    通用CNN结构范式

ImageNet竞赛的标准输入尺寸为224x224--ImageNet数据集被用来作为一个基线数据集来检验“手工网络”(NAS算法生成的网络架构)的性能。 ReLU-Conv-BatchNorm三项组块也很常见,而且已经被广泛证明成为了可以为深度卷积神经网络带来最优的效果。

张量聚合的方式不止一种,很多优异的网络在没有进行加权的情况下直接进行求和或连结--但不会对性能造成较大的影响。 上述表格中描述的这些过去常用的网络结构同样也用在了ResNets,DenseNets和NASNets中。

注意,这并不是一个完全的随机神经网络。 它并不是完全从零开始随机化。 而是在其他组件保持不变的情况下,针对CNN设计过程中一个被称为“连接(wiring)”的单一组件进行探索。

作者试图让读者明白的一个重要观点--他们还没有实现完全意义的随机化神经网络,但正开始对组件搜索空间一步一步的进行深入的探索。

在这些约束条件下,各种经典的随机模型图被用来生成网络的随机连接。

一些随机连接网络结构

随机网络打开了深度学习探索的大门

本研究的意义在于其探索性思想:拓展NAS算法的搜索空间,寻找新的、更好的网络设计。 虽然研究人员已经发现了一些很棒的设计,但是以手动尝试的方式遍历整个搜索空间实际上是不可行的。

这也扩展到了另一观点:如果我们要扩展搜索空间,我们需要一种擅长搜索的算法(在本例中用的是网络生成器),。 这种算法必须知道要寻找什么,或者至少类似梯度下降优化算法有着通过设计向优化方向靠拢的趋势。

架构搜索是深度学习研究的下一个前沿领域。 它使我们可以使用算法来发现最优的网络架构,而不是反复进行试验。

目前,在搜索其他组件(在本例中是“连接方式”)时修复一些网络组件已经成为可能。 这将问题简化为更容易处理的小问题。 由于这是我们发现新颖架构的唯一方法,NAS算法应该具备一定程度的随机性。

下一步是进一步扩展搜索空间和增情搜索算法的随机性。 这意味着随机搜索思想将扩展到网络中越来越多的组件上,直到全部网络组件均可以被算法自动设计好为止。

当实现完全意义的NAS时会发生什么?它会选择像2x4这样的非平方卷积吗?它会使用反馈循环吗?网络变得更简单还是更复杂?

神经架构搜索是一个令人兴奋的新兴研究领域。 希望搜索算法变得更加具有随机性从而实现利用随机化的方式发现创造性的、以前从未想到过的架构。




卷积神经网络的训练过程

卷积神经网络的训练过程分为两个阶段。 第一个阶段是数据由低层次向高层次传播的阶段,即前向传播阶段。 另外一个阶段是,当前向传播得出的结果与预期不相符时,将误差从高层次向底层次进行传播训练的阶段,即反向传播阶段。
训练过程如图4-1所示。
训练过程为:


  • 网络进行权值的初始化;
  • 输入数据经过卷积层、下采样层、全连接层的向前传播得到输出值;
  • 求出网络的输出值与目标值之间的误差;
  • 当误差大于我们的期望值时,将误差传回网络中,依次求得全连接层,下采样层,卷积层的误差。 各层的误差可以理解为对于网络的总误差,网络应承担多少; 当误差等于或小于我们的期望值时,结束训练。
  • 根据求得误差进行权值更新。 然后在进入到第二步。


图4-1卷积神经网络的训练过程
1.1 卷积神经网络的前向传播过程
在前向传播过程中,输入的图形数据经过多层卷积层的卷积和池化处理,提出特征向量,将特征向量传入全连接层中,得出分类识别的结果。 当输出的结果与我们的期望值相符时,输出结果。
1.1.1 卷积层的向前传播过程
卷积层的向前传播过程是,通过卷积核对输入数据进行卷积操作得到卷积操作。 数据在实际的网络中的计算过程,我们以图3-4为例,介绍卷积层的向前传播过程。 其中一个输入为15个神经元的图片,卷积核为2×2×1的网络,即卷积核的权值为W1,W2,W3,W4。 那么卷积核对于输入数据的卷积过程,如下图4-2所示。 卷积核采用步长为1的卷积方式,卷积整个输入图片,形成了局部感受野,然后与其进行卷积算法,即权值矩阵与图片的特征值进行加权和(再加上一个偏置量),然后通过激活函数得到输出。
图4-2图片深度为1,卷积层的向前传播过程
而在图3-4中,图片深度为2时,卷积层的向前传播过程如图4-3所示。 输入的图片的深度为4×4×2,卷积核为2×2×2,向前传播过程为,求得第一层的数据与卷积核的第一层的权值的加权和,然后再求得第二层的数据与卷积核的第二层的权值的加权和,两层的加权和相加得到网络的输出。



图4-3图片深度为2,卷积层的向前传播过程
1.1.2 下采样层的向前传播过程
上一层(卷积层)提取的特征作为输入传到下采样层,通过下采样层的池化操作,降低数据的维度,可以避免过拟合。 如图4-4中为常见的池化方式示意。 最大池化方法也就是选取特征图中的最大值。 均值池化则是求出特征图的平均值。 随机池化方法则是先求出所有的特征值出现在该特征图中的概率,然后在来随机选取其中的一个概率作为该特征图的特征值,其中概率越大的选择的几率越大。


图4-4池化操作示意图


1.1.3 全连接层的向前传播过程
特征图进过卷积层和下采样层的特征提取之后,将提取出来的特征传到全连接层中,通过全连接层,进行分类,获得分类模型,得到最后的结果。 图4-5为一个三层的全连接层。 假设卷积神经网络中,传入全连接层的特征为x1,x2。 则其在全连接层中的向前传播过程如图4-5所示。 第一层全连接层有3个神经元y1,y2,y3。 这三个节点的权值矩阵为W,其中b1,b2,b3分别为节点y1,y2,y3的偏置量。 可以看出,在全连接层中,参数的个数=全连接层中节点的个数×输入的特征的个数+节点的个数(偏置量)。 其向前传递过程具体如图所示,得到输出矩阵后,经过激励函数f(y)的激活,传入下一层。
图4-5全连接层的向前传播过程
1.2 卷积神经网络的反向传播过程
当卷积神经网络输出的结果与我们的期望值不相符时,则进行反向传播过程。 求出结果与期望值的误差,再将误差一层一层的返回,计算出每一层的误差,然后进行权值更新。 该过程的主要目的是通过训练样本和期望值来调整网络权值。 误差的传递过程可以这样来理解,首先,数据从输入层到输出层,期间经过了卷积层,下采样层,全连接层,而数据在各层之间传递的过程中难免会造成数据的损失,则也就导致了误差的产生。 而每一层造成的误差值是不一样的,所以当我们求出网络的总误差之后,需要将误差传入网络中,求得该各层对于总的误差应该承担多少比重。
反向传播的训练过程的第一步为计算出网络总的误差: 求出输出层n的输出a(n)与目标值y之间为误差。
计算公式为:
其中,为激励函数的导函数的值。
1.2.1 全连接层之间的误差传递
求出网络的总差之后,进行反向传播过程,将误差传入输出层的上一层全连接层,求出在该层中,产生了多少误差。 而网络的误差又是由组成该网络的神经元所造成的,所以我们要求出每个神经元在网络中的误差。 求上一层的误差,需要找出上一层中哪些节点与该输出层连接,然后用误差乘以节点的权值,求得每个节点的误差,具体如图所示:
图4-6 全连接层中误差的传递过程
1.2.2 当前层为下采样层,求上一层的误差
在下采样层中,根据采用的池化方法,把误差传入到上一层。 下采样层如果采用的是最大池化(max-pooling)的方法,则直接把误差传到上一层连接的节点中。 果采用的是均值池化(mean pooling)的方法,误差则是均匀的分布到上一层的网络中。 另外在下采样层中,是不需要进行权值更新的,只需要正确的传递所有的误差到上一层。
1.2.3 当前层为卷积层,求上一层的误差
卷积层中采用的是局部连接的方式,和全连接层的误差传递方式不同,在卷积层中,误差的传递也是依靠卷积核进行传递的。 在误差传递的过程,我们需要通过卷积核找到卷积层和上一层的连接节点。 求卷积层的上一层的误差的过程为: 先对卷积层误差进行一层全零填充,然后将卷积层进行一百八十度旋转,再用旋转后的卷积核卷积填充过程的误差矩阵,并得到了上一层的误差。 如图4-7为卷积层的误差传递过程。






请到「今天看啥」查看全文