Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记

简介

当前许多图像分类的研究可以归功于训练过程的改进,例如改进数据增强和优化方法。然而在一些文献中,许多改进仅仅在实验细节中有简短的描述活在源码中才会出现。本文使用了这些小技巧将原始ResNet-50在ImageNet上的准确率从75.3%提升到79.29%。复现结果可以在GluonCV中找到,https://github.com/dmlc/gluon-cv。这篇文章可以看作是一群经验丰富的工程师介绍炼丹技巧,帮助大家可以练出更好的丹药。

首先可以看一下作者训练的ResNet-50的网络效果。下表对比了目前比较常用的分类网络的效果,最后一行是作者通过添加各种训练技巧后复现的ResNet-50的效果,和原论文的结果对比提升非常明显(top-1准确率从75.3%提升到79.29%)。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
既然要做对比实验,首先要有一个baseline就是作者复现相关算法的结果,这个baseline的复现细节包括数据预处理的方式和顺序,网络层参数初始化方式,迭代次数,学习率变化策略等。

Baseline训练过程
在训练阶段的做法如下:
(1)随机采样图像,将其从【0,255】原始像素值解码为32位浮点数。
(2)随机裁剪纵横比在[3/4,4/3]之间,面积在[8%,100%]之间的矩形区域,然后将裁剪区域调整为224 * 224的方形图像。
(3)用0.5的概率做水平翻转。
(4)从[0.6,1.4]之间均匀采样系数来缩放色调,饱和度,亮度。
(5)增加PCA噪声,系数为正态分布N(0,0.1)中的采样。
(6)归一化RGB通道。

测试阶段调整图像的短边为256,同时保留其纵横比。之后从中间裁剪出224 * 224,用训练阶段的方式归一化RGB通道,不做其他数据增强。

下图是作者采用baseline方式复现的三个常用分类网络的结果,可以看出效果和原论文差不多,这里的baseline也将作为后续的实验对比对象。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
介绍完baseline后,接下来就是这篇论文的重点:怎么优化?整篇论文从加快模型训练,网络结构优化和训练调优三个部分分别介绍如何提升模型效果。

一、加快模型训练部分:

一共有两块内容,一块是选择更大的batch size,另一块是采用16为浮点型进行训练。

选用更大的batch size能够在整体上加快模型的训练,但是一般来说只增大batch size效果不太理想,有如下几个解决方案:

1.增大学习率 Large-batch 训练, 因为更大的batch size意味着每个batch数据计算得到的梯度更加贴近整个数据集,也就是方差更小。因此当更新方向更加准确后,迈的步子也可以更大了,一般而言将batch size修改为原来的几倍,那么初始学习率也需要修改为原来的几倍。如果初始学习率为0.1,batch_size为256,我们的batch_size定义为b,那么学习率可以增加为0.1 * b/256。

2.用一个小的学习率先训练几个epoch,Learning rate warmup(学习率热身) 因为网络的参数是随机初始化的,假如一开始就采用较大的学习率容易出现数值不稳定,这是使用warmup的原因。等到训练过程基本稳定了就可以使用原先设定的初始学习率进行训练了。作者在实现warmup的过程中采用线性增加的策略,举例而言,假设warmup阶段的初始学习率是0,warmup阶段共需要训练m个batch的数据(实现中m个batch共5个epoch),假设训练阶段的初始学习率是L,那么在batch i的学习率就设置为i*L/m。

3.每个残差块的最后一个BN层的γ参数初始化为0, 我们知道BN层的γ、β参数是用来对标准化后的输入做线性变换的,也就是γx^+β,一般γ参数都会初始化为1,作者认为初始化为0更有利于模型的训练。

4.不对bias参数执行weight decay操作,No bias decay weight decay主要的作用就是通过对网络层的参数(包括weight和bias)做约束(L2正则化会使得网络层的参数更加平滑)达到减少模型过拟合的效果。在"14分钟训练imagenet"提出的策略是weight decay只用于卷积层和FC的weights,biases和BN层的和都不用。
因为本文提出的是限制在单机上训练的方法,所以batch_size不会超过2k。

采用低精度(16位浮点型)训练是从数值层面来做加速。一般而言现在大部分的深度学习网络的输入、网络参数、网络输出都采用32位浮点型,现在随着GPU的迭代更新(比如V100支持16为浮点型的模型训练),如果能使用16位浮点型参数进行训练,就可以大大加快模型的训练速度,这是作者加速训练最主要的措施,不过目前来看应该只有V100才能支持这样的训练。

那么这二者的优化效果如何?Table3是采用更大的batch size和16位浮点型进行训练的结果,可以看出和原来的baseline相比训练速度提升还是比较明显的,效果上也有一定提升,尤其是MobileNet。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
详细对比实验可以参考Table4.
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记

二、优化网络结构部分:
对网络架构的轻微调整通常不会改变计算复杂性,但可能对模型精度产生不可忽视的影响。
这部分的优化是以ResNet为例的,Figure1是ResNet网络的结构示意图,简单而言是一个input stem结构、4个stage和1个output部分,input stem和每个stage的内容在第二列展示,每个residual block的结构在第三列展示,整体而言这个图画得非常清晰了。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
关于residual block的改进可以参考Figure2,主要有3点。蓝色的地方是做了修改的。

1.ResNet-B, 改进部分就是将stage中做downsample的residual block的downsample操作从第一个1 * 1卷积层换成第二个3 * 3卷积层,如果downsample操作放在stride为2的11卷积层,那么就会丢失较多特征信息(默认是缩减为1/4),可以理解为有3/4的特征点都没有参与计算,而将downsample操作放在33卷积层则能够减少这种损失,因为即便stride设置为2,但是卷积核尺寸够大,因此可以覆盖特征图上几乎所有的位置。

2.ResNet-C, 改进部分就是将Figure1中input stem部分的7 * 7卷积层用3个3 * 3卷积层替换。前两个输出通道为32,第三个输出通道为64。这部分借鉴了Inception v2的思想,主要的考虑是计算量,毕竟大尺寸卷积核带来的计算量要比小尺寸卷积核多不少,不过读者如果仔细计算下会发现ResNet-C中3个3 * 3卷积层的计算量并不比原来的少,这也是Table5中ResNet-C的FLOPs反而增加的原因。

3.ResNet-D, 改进部分是将stage部分做downsample的residual block的支路从stride为2的1 * 1卷积层换成stride为1的卷积层,并在前面添加一个池化层用来做downsample。这部分我个人理解是虽然池化层也会丢失信息,但至少是经过选择(比如这里是均值操作)后再丢失冗余信息,相比stride设置为2的1*1卷积层要好一些。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
最终关于网络结构改进的效果如Table5所示,可以看出在效果提升方面还是比较明显的。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
实验是基于第三部分的设置,即batch_size为1024,用FP16。相比原始ResNet-50,最后的ResNet-D提升了接近1%。不过在实践中,发现比原来慢3%。

三、模型训练调优部分
这部分作者提到了4个调优技巧:

1、Cosine Learning Rate Decay(余弦学习率衰减), 这部分的实验结果对比可以参考Figure3,其中(a)是cosine decay和step decay的示意图,step decay是目前比较常用的学习率衰减方式,表示训练到指定epoch时才衰减学习率。(b)是2种学习率衰减策略在效果上的对比。
余弦退火策略是2016年提出来的,简化版本是把学习率从初始值降低到0。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
其中T是总batch数,t是当前batch索引,\eta是初始学习率
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
从上图可以看出,起初余弦衰减的学习率缓慢下降,在中间部分几乎是线性下降,在最后又缓慢下降。(不过从最后的准确率来看,余弦衰减似乎并无优势,也没有加速收敛?)

2、采用Label Smoothing(标签平滑), 这部分是将原来常用的one-hot类型标签做软化,这样在计算损失值时能够在一定程度上减少过拟合。从交叉熵损失函数可以看出,只有真实标签对应的类别概率才会对损失值计算有所帮助,因此label smoothing相当于减少真实标签的类别概率在计算损失值时的权重,同时增加其他类别的预测概率在最终损失函数中的权重。这样真实类别概率和其他类别的概率均值之间的gap(倍数)就会下降一些,如下图所示。
softmax公式,其中K为标签个数,z_{i}为预测类别i的分数,q为softmax操作的输出.
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
负交叉熵损失公式,其中p_{i}为真实概率分布,当对了为1,不对为0。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
标签平滑的思路来自2015年提出的Inception-v2。它将构造的真实分布改为
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
其中\varepsilon为一个很小的常量。现在优化解变为
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
其中\alpha为任意实数。这鼓励FC层为有限输出,从而泛化的更好.
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
从上图可以看出标签平滑的分布中心更接近理论值同时其极值更少.

3、Knowledge Distillation(知识蒸馏), 这部分其实是模型加速压缩领域的一个重要分支,表示用一个效果更好的teacher model训练student model,使得student model在模型结构不改变的情况下提升效果。作者采用ResNet-152作为teacher model,用ResNet-50作为student model,代码上通过在ResNet网络后添加一个蒸馏损失函数实现,这个损失函数用来评价teacher model输出和student model输出的差异,因此整体的损失函数原损失函数和蒸馏损失函数的结合:
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
其中p表示真实标签,z表示student model的全连接层输出,r表示teacher model的全连接层输出,T是超参数,用来平滑softmax函数的输出。

4、引入Mixup Training(混合训练), mixup其实也是一种数据增强方式,假如采用mixup训练方式,那么每次读取2张输入图像,假设用(xi,yi)和(xj,yj)表示,那么通过下面这两个式子就可以合成得到一张新的图像(x,y),然后用这张新图像进行训练,需要注意的是采用这种方式训练模型时要训更多epoch。式子中的λ是一个超参数,用来调节合成的比重,取值范围是[0,1]。
Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
其中\lambda \in [ 0,1 ]是取自\operatorname { Beta } ( \alpha , \alpha )分布的随机数。在mixup训练中,只用新样本。

最后作者也证明了在分类算法中的这些优化点在其他图像任务中同样有效,比如目标检测任务,可以看出在ImageNet数据集上表现最好的图像分类算法同样在VOC数据集上有最后的表现。另外在语义分割任务上也有类似的迁移效果。

优秀论文解读:https://www.jianshu.com/p/0e0bc5dc300a
https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247486778&idx=2&sn=23582d015eff1d0d5ba0c6f71ca86296&chksm=ec1fe0c3db6869d588af077e6041377193cee8c8eeb069f283bdf6b9a2613bb7dc6b4c7b365a&mpshare=1&scene=1&srcid=0318W4ZKu3BiCVeuKx6lLMrc#rd