神经网络架构演进史: 全面回顾从LeNet5到ENet十余种架构

(转自机器之心,略有删改)

  1. LeNet5

LeNet5诞生于1994年,是最早的卷积神经网络之一, 并且推动了深度学习领域的发展。自从1988年开始,在许多次成功的迭代后,这项由Yann LeCun完成的开拓性成果被命名为LeNet5(参见:Gradient-Based Learning Applied to Document Recognition).

LeNet5的架构基于这样的观点: (尤其是)图像的特征分布在整张图像上,以及带有可学习参数的卷积是一种用少量参数在多个位置上提取相似特征的有效方法。在那时候,没有GPU帮助训练,甚至CPU的速度也很慢。因此,能够保存参数以及计算过程是一个关键的进展。这和将每个像素用作一个大型多层神经网络的单独输入相反。LeNet5阐述了那些像素不应该被使用在第一层,因为图像具有很强的空间相关性,而使用图像中独立的像素作为不同的输入特征则利用不到这些相关性。

LeNet5特征能够总结为如下几点:
1)卷积神经网络使用三个层作为一个系列: 卷积,池化,非线性
2) 使用卷积提取空间特征
3)使用映射到空间均值下采样(subsample)
4)双曲线(tanh)或S型(sigmoid)形式的非线性
5)多层神经网络(MLP)作为最后的分类器
6)层与层之间的稀疏连接矩阵避免大的计算成本

总体看来,这个网络是最近大量神经网络架构的起点,并且也给这个领域带来了许多灵感。

2 间隔
从1998年到2010年,神经网络处于孵化阶段,大多数人没有意识到他们不断增强的力量,与此同时其他研究者则进展缓慢。由于手机相机以及便宜的数字相机的出现,越来越多的数据可被利用。并且计算能力也在成长,CPU变得更快,GPU变成了多种用途的计算工具。这些趋势使得神经网络有所进展,虽然速度很慢,数据和计算能力使得神经网络能够完成的任务越来越有趣,之后一切变得清晰起来。

3 Dan Ciresan Net
2010年的时候,Dan Claudiu Ciresan 和Jurgen Schmidhuber 发布了最早的GPU神经网络的一个实现。这个实现是在一块NVIDIA GTX280图形处理器上运行9层的神经网络,包括前向与反向传播。

4 AlexNet
2012年,Alex Krizhevsky发表了AlexNet(参见 ImageNet Classification with Deep Convolutional Neural Networks),它是LeNet的一种更深更宽的版本,并以显著的优势赢得了困难的ImageNet竞赛。

AlexNet 将LeNet的思想扩展到了更大的能学习到更复杂的对象层次的神经网络上。这项工作的贡献有:
1)使用修正的非线性单元(ReLU)
2)在训练的时候使用Dropout技术有选择的忽视单个神经元,从而避免过拟合
3)覆盖进行最大池化,避免平均池化的平均化效果。
4)使用GPU NVIDIA GTX580减少训练时间

在那时, GPU比CPU提供更多数量的核,训练时间可以提升10倍。这又反过来允许使用更大的数据集和更大的图像。

AlexNet的成功掀起了一场小革命。卷积神经网络现在是深度学习的骨干。它已经变成了现在能够解决有用任务的大型神经网络的代名词。

5 Overfeat
2013年12月, 纽约大学的Yann LeCun实验室提出了AlexNet的衍生–Overfeat(参见: OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks). 这篇文章也提过了学习边界框(learning bounding box),并导致之后出现了很多研究同一主题的论文。

6 VGG
来自牛津大学的VGG网络(参见: Very Deep Convolutional Networks for Large-Scale Image Recognition)是第一个在各个卷积层使用更小的3*3过滤器(filter),并把他们组合成为一个卷积序列进行处理的网络。

这看起来和LeNet的原理相反,即使用大的卷积来获得一张图像中相似的特征。和AlexNet的99或1111过滤器不同,VGG的过滤器很小,离LeNet竭力所要避免的臭名昭著的11的卷积异常接近–至少在该网络的第一层是这样。但是VGG巨大的进展是通过依次采用多个33的卷积,能够模仿出更大的感受野(receptive field)的效果,例如55或77.这些思想也被用在了最近的更多的网络架构上。如Inception与ResNet。

VGG网络使用多个33卷积层去表征复杂特征。如果VGG-E的第3,4,5块(block):256256 和 512512个33过滤器被依次使用多次,以提取更多复杂特征以及这些特征的组合。其效果就等于一个带有3个卷积层的大型的512*512分类器。这显然意味着大量的参数和学习能力。但是这些网络训练困难,必须划分到较小的网络,并逐层累加。这是因为缺少强大的方式对模型进行正则化,这样或多或少约束大量由于大量参数增长的搜索空间。

VGG在许多层中都使用大特征尺寸,因为推断(inference)在运行时是相当耗费时间。正如Inception的瓶颈那样,减少特征的数量将节省一些计算成本。

7 网络中的网络(Network-in-network)
网络中的网络(NiN,参见论文: Network in Network)的思路简单又伟大: 使用1*1卷积为卷积层的特征提供更组合型的能力。

NiN架构在各个卷积之后使用空间MLP层,以便更好地在其它层之前组合特征。同样,你可以认为11卷积与LeNet最初的原理相悖,但是事实上他们可以以一种更好的方式组合卷积特征,而这时不可能通过简单的堆叠更多的卷积特征做到的。这和使用原始像素作为下一层输入是有区别的。其中11卷积常常被用于在卷积之后的特征映射上对特征进行空间组合,所以它们实际上可以使用非常少的参数,并在这些特征上的所有像素上共享。

MLP的能力是通过将卷积特征组合到更复杂的组(group)来极大地增强单个卷积特征的有效性。这个想法之后被用到一些最近的框架上,例如ResNet,Inception及其衍生技术。

NiN也使用了平均池化层作为最后分类器的一部分,这是另一种将会变得常见的实践。这是用过在分类之前对网络针对多个输入图像的响应进行平均完成的。

8 GoogleNet与Inception
来自Google的Christian Szegedy 开始追求减少深度学习网络的计算开销, 并设计出GoogleLeNet-第一个Inception架构(参见: Going Deeper with Convolutions)。

在2014年秋季, 深度学习模型正在变得在图像与视频帧的分类中非常有用。大多数怀疑者已经不再怀疑深度学习与神经网络这一次真的回来了。而且相信这种趋势将一直发展下去。鉴于这些技术的用处,谷歌这样的巨头非常有兴趣在他们的服务器上高效且大规模的部署这些架构。

他和他的团队提供了Inception的模块:

《神经网络架构演进史: 全面回顾从LeNet5到ENet十余种架构》 20160907100308_882.jpg

初看之下这不过是基本上是11 33 55卷积过滤器的并行组合。但是Inception的伟大思路在于11的卷积块(NiN)在昂贵的并行模块之前减少特征的数量。这一般被称之为瓶颈(bottleneck)。这一部分将在下面的瓶颈层部分来解释。

GoogLeNet使用没有Inception模块的主干作为初始层,之后是与NiN相似的一个平均池化层加softmax分类器。这个分类器比AlexNet与VGG的分类器的运算数量少的多。这也促成了一项非常有效的网络设计(参见论文: An Analysis of Deep Neural Network Models for Practical Applications)

9 瓶颈层(Bottleneck layer)
受到NiN的启发,Inception的瓶颈层减少了每一层的特征的数量,并由此减少了运算的数量所以可以保持较低的推理时间。在将数据送入昂贵的轨迹模块之前,特征的数量会减少4倍。在计算成本上,这是很节约时间的。这也是该架构的成功之处。

让我们具体验证一下。 现在你有256个特征输入,256个特征输出,假定Inception层只能执行33的卷积,也就是总共要完成25625633(将近589,000次乘积累加(MAC)运算)。这可能超出了我们的计算预算。比如说,在谷歌服务器上要以0.5毫秒运行该层。作为替代,我们决定减少需要进行卷积运算的特征的数量,也就是64(即256/4)个。在这种情况下,我们首先进行256->64个 11的卷积,然后在所有Inception的分支上进行64次卷积,接着在使用一个64->256的特征的11卷积。现在运算如下:
2566411 = 16,000s
64
6433 = 36,000s
642561*1 = 16,000s
相比之前的60w,现在共有7w的计算量,几乎少了近10倍。

而且,尽管我们做了更少的运算,我们在此层也没有损失其通用性(generality)。事实证明瓶颈层在ImageNet这样的数据集上已经表现出了顶尖水平,而且它也被用于接下来介绍的ResNet这样的架构中。

它之所以成功是因为输入特征是相关联的,因此可以通过将它们与1*1卷积结合来减少冗余。然后在小数量的特征进行卷积之后,他们能在下一层被再次扩展成有意义的结合。

10 Inception V3(V2)
Christian和他的团队都是非常高产的研究人员。2015年2月,Batch-normalized Inception被引入作为InceptionV2(参见论文: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift).Batch-normalization 在一层的输出上计算所有特征映射的均值和标准差,并且使用这些值规范化它们的响应。这相当于数据增白(whitening),因此使得所有的神经图(neural maps)在同样的范围内有响应,而且是零均值。在下一层不需要从输入数据中学习offset时,这有助于训练,还能重点关注如何最好的结合这些特性。

2015年12月, 该团队发布Inception模块和类似架构的一个新版本(参见论文:Rethinking the Inception Architechture for Computer Vision).该论文更好地解释了原始的GoogLeNet架构,在设计选择上给出了更过的细节。原始思路如下:
通过谨慎构建网络,平衡深度与宽度,从而最大化进入网络的信息流。在每次池化之前,增加特征映射。每当深度增加时,网络层的深度或者特征的数量也系统性的增加。使得每一层深度增加之前,先增加特征的结合。一般只使用33的卷积,可能情况下将55和77过滤器分成多个33。看下图:

《神经网络架构演进史: 全面回顾从LeNet5到ENet十余种架构》 20160907100308_712.jpg

因此新的Inception成为了

《神经网络架构演进史: 全面回顾从LeNet5到ENet十余种架构》

也通过将卷积平整进更多复杂的模块中而分拆过滤器

《神经网络架构演进史: 全面回顾从LeNet5到ENet十余种架构》 20160907100308_291.jpg

在进行Inception计算的同时,Inception模块也能通过提供池化降低数据的大小。这基本类似于在运行一个卷积的时候并行一个简单的池化层。

《神经网络架构演进史: 全面回顾从LeNet5到ENet十余种架构》 20160907100309_759.jpg

Inception也使用一个池化层和softmax作为最后的分类器。

11 ResNet
2015年12月又出现了新的变革,这和Inception V3出现的时间一样。ResNet有着简单的思路:供给两个连续卷积层的输出,并分流(bypassing)输入进入下一层(参见论文: Deep Residual Learning for Image Recognition)。
这和之前的一些旧思路类似。DanReSNet中,他们分流两个层并被应用于更大的规模。在两层后分流是一个关键的直觉。因为分流一个层并未给出更多的改进。通过两层可能认为是一个小型的分类器,或者一个Network-In-Network。
这是第一个超过100的网络, 甚至还能训练出1000层的网络。

有大量网络层的ResNet开始使用类似于Inception瓶颈层的网络层,这种层通过首先由带有更小输出的11卷积较少特征的数量,然后使用一个33的层,再使用1*1层处理更大量的特征。类似于Inception模块,这样能够保证计算量低,同事提供丰富的特征结合。

ResNet在输入上使用相对简单的初始化层: 一个带有两个池的7*7卷积层。可以把这个与更复杂、更少直觉性的InceptionV3 V4坐下对比。ResNet也是用一个池化层加上softmax作为最后的分类器。

关于ResNet的其他洞见每天都有发生:
ResNet可被认为既是平行模块又是连续模块,把输入输出视为在许多模块中并行,同时每个模块的输出又是连续连接的。
ResNet也可被视为并行模块或连续模块的多种组合(参见论文: Residual Networks are Exponential Ensembles of Relatively Shallow Networks)。
已经发现ResNet通常在20-30层的网络块上以并行的方式运行。而不是连续流过整个网络长度。
当ResNet像RNN一样把输出反馈到输入时,该网络可被视为更好的生物上可信的皮质模型(参见论文: Bridging the Gaps between Residual Learning, Recurrent Neural Networks and Visual Cortex)。

12 Inception V4
这是Christian与其团队的另一个Inception版本,该模块类似于Inception V3。 Inception v4也结合了Inception模块和ResNet模块的特性。我认为该架构不太简洁。但也充斥着较少透明度的启发法。很难理解里面的选择,对作者而言也难以解释。
考虑到网络的简洁性,可被轻易理解并修正,那ResNet可能就更好了。

13 SqueezeNet
SqueezeNet(参见论文: SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size)是最近才公布的,该架构对ResNet与Inception里面的概念进行了重新的处理。一个更好的架构设计网络型号要小,而且参数还不需要复杂的压缩算法。

14 ENet
我们团队计划结合近期公开的架构的所有特征,做出一个非常高效、低重的网络,使用较少的参数和计算就能达到顶尖的结果。该网络架构被称为ENet,由Adam Paszke设计。我们已经使用它进行单像素标记和场景解析。

详细了解ENet可参见论文ENet: A Deep Neural Network Architecture for Real-time semantic Segmentation. ENet 是一个编码加解码的网络,将分类反向传播给原始图像进行分割。这只使用了神经网络,没有其他算法进行图像分割。

ENet被设计为在开始时尽可能使用最小数量的资源。正是因为它有着如此小的脚本,编码器和解码器网络共占有0.7MB 16fp的精度。即使这么小的型号,ENet在分割准确度上也类似于或高于其他神经网络的解决方案。

15 模块分析
对CNN模块的分析,该论文(Systematic evaluation of CNN advances on the ImageNet)已经做过了,里面的发现是非常有帮助的:

1)使用没有batch norm的ELU非线性或者有batch norm的ReLU。
2)使用一个学习到的RGB的彩色空间转换。
3)使用线性学习率衰退策略
4)使用平均和最大池化层的和
5)使用大约128到256的mini-batch大小。如果这对你的GPU太大,将学习率按比例降到这个大小就行。
6)使用完全连接层做为卷积,并为最后的预测平均左右预测。
7)当研究增加训练集大小的时候,检测有一个plateau是否没有达到
8)数据的整洁要比数据大小重要
9)如果你不能增加输入图像的代销,在随后的层上减少步幅(stride),这样做同样的效果。
10)如果你的网络有复杂和高度优化的架构,像是GoogLeNet,那修改一定要谨慎。

16 其他值得关注的架构
FractalNet(参见论文: FractalNet:Ultra-Deep Neural Network without Residuals)使用递归架构,它没有在ImageNet上测试。该架构是ResNet的衍生或者更通用的ResNet。

    原文作者:Warren_Liu
    原文地址: https://www.jianshu.com/p/e7980ba12b4d
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞