XNOR-Net:二值化卷积神经网络

Index

  • Introduction
  • Related Works
  • Binary Neural Networks
  • XNOR-Net
  • Conclusion

Introduction

神经网络模型的压缩是一个很有前景的方向。由于神经网络需要较大的计算量,目前来说,我们通常在服务器上对神经网络进行训练或是计算的。移动端的神经网络在断网的情况下就失去了作用。通过一些压缩神经网络的方法,我们能够缩小神经网络的规模,并且提高计算速度。这对于实现移动端人工智能来说很有意义。
本文基于< XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks>介绍了神经网络模型压缩的一些相关工作,以及二值化卷积神经网络BWN,还有XNOR-Net的工作原理。XNOR-Net的实现代码:[此处应有链接,等我写完初步的demo将会上传]。(由于Tensorflow暂时不支持bit操作,所以代码只作为研究用,并不能真正实现bit操作。)

Related Works

  • Shallow Networks浅层网络:用更浅的网络来表示训练好的网络。很多时候,神经网络会存在冗余的参数和层数,这个方法通过使用更浅的网络,达到相同的效果,减少参数加快计算。
  • Compressing pre-trained networks压缩训练好的模型:Deep Compression就是这样的方法。通过对模型参数进行剪枝,量化,哈夫曼编码等技巧,能够压缩模型。关于Deep Compression的介绍可以看我前几篇文章(文末有链接)。
  • Designing compact layers设计更简洁层: Residual layers就是一种压缩的手段。
  • Quantizing parameters量化参数:目前浮点数通常使用32bit表示,量化可以用更少的位数来表示参数,但是会损失一定精度。
  • Network binarization网络二值化:二值化是将网络完全使用+1, -1来表示,这样就可以用1bit来表示网络。Binary Weight Network 和XNOR-Net都是二值化的网络。网络二值化后,卷积可以表示为简单的加法减法,且可以大大减小计算时间。

Binary Neural Networks

Binary Neural Networks由Bengio团队在< BinaryNet: Training Deep Neural Networks with Weights and Activations Constrained to +1 or −1 >一文中提出。
其原理很简单:

《XNOR-Net:二值化卷积神经网络》 BWN

其中I为Input输入,W为weight,B为二值化的weight,alpha为缩放因子。

由上式可知,一个kernel对输入进行卷积的结果,可以由二值化的weight对输入进行⊕后,再乘缩放因子得到。其中⊕表示没有乘法的卷积运算。

证明:

《XNOR-Net:二值化卷积神经网络》 证明

由上式可知,J最小时,alpha和B有最优值。

展开一式:

《XNOR-Net:二值化卷积神经网络》 证明

令c = WT
W, n=BTB,得到:

《XNOR-Net:二值化卷积神经网络》 证明

易得alpha和B的最优解:

《XNOR-Net:二值化卷积神经网络》 证明
《XNOR-Net:二值化卷积神经网络》 证明

可知B = Sign(W), alpha=L1norm(W)/n. 其中n=cwh,c,w,h分布为kernel的输入通道数,宽,高。

可以通过以下算法对网络进行训练:

《XNOR-Net:二值化卷积神经网络》 Algorithm

值得注意的是,我们在前向计算时使用B和alpha,而在后向传播时使用实数W进行参数更新。这是由于梯度的量级通常很小,直接对B进行更新时,求导后值为0。
在网络中加入Batch Normalization可以提升网络性能。

XNOR-Net

XNOR-Net与BWN不同的地方在于,XNOR-Net不仅将kernel进行二值化,还将input二值化。
由于证明过程与BWN相似,在这里不进行累述。

《XNOR-Net:二值化卷积神经网络》 Binarization

如上图,将输入进行二值化时,由于计算L1norm时存在很多冗余的计算,XNOR-Net采用了更有效的方式:将输入在channel维度计算norm得到A,用k(k为w
h大小的卷积核,其值为1/wh)对A进行卷积得到K。

之后只需要将Sign(I)与Sign(W)进行卷积,再乘K和alpha即可。

由于Sign(I)和Sign(W)都是二值化的,卷积可以通过XNOR和bit-count表示。

《XNOR-Net:二值化卷积神经网络》 结构

XNOR-Net的block表示如上图。

Conclusion

总的来说,神经网络压缩是一个很有前景的方向。目前存在的问题主要是精度损失的问题。文章中将AlexNet进行压缩后,精度损失了2.9%,这对于某些任务来说是不可接受的。其次在于现在很多硬件没有成熟的二值运算。
未来我可能会开源一个基于Tensorflow的神经网络压缩的代码。由于目前Tensorflow底层代码没有支持二值运算,所以里面使用的实际上还是浮点数。因此只能作为研究或者提取训练好的参数到其他平台。

Neural Networks compression系列文章包括:

    原文作者:Efackw13
    原文地址: https://www.jianshu.com/p/f9b015cc4514
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞