Course 2-Improving Deep Neural Networks--Week 2
优化算法
在大数据上训练模型会很慢,若使用优化算法,就会大大提高训练效率。本周的内容就是介绍常见的优化算法,如mini-batch、momentum、RMSprop、Adam,最后再介绍下局部最优与鞍点的概念。
2.1 mini-batch gradient descent
batch VS mini-batch gradient descent
向量化操作使得我们可以同时处理m个样本,但是当m很大时,处理速度仍然较慢。
batch gradient descent就是我们之前的处理方法,要求我们必须处理整个训练集,才能进行一次梯度下降。
mini-batch的思想是将训练集划分为很多的mini-batch。假设训练集有样本500w,每个mini-batch有样本1000个,那么我们总共就有5000个mini-batch,每个mini-batch记为
图片中的代码被称为一次epoch。1 次epoch意味着对训练集的一次完整遍历。batch gradient descent中,遍历一次训练集只能做一次梯度下降,而mini-batch gradient descent中,遍历一次训练集,即1 epoch,允许做5000次梯度下降。
2.2 understanding mini-batch gradient descent
- 1、batch gradient descent的损失函数是单调递减的。
- 2、mini-batch gradient descent的损失函数却不是单调递减的,而是在大的下降趋势中,不断上下震动。这是因为,每次更新使用的都是训练集中的一部分数据,利用部分数据算出的代价总是会与真实值有些偏差。
- 如下图所示
- 在mini-batch gradient descent中,我们要选择的参数是mini-batch size:
- 当mini-batch size = m,即为batch gradient descent。缺点:单次迭代耗时太长。
当mini-batch size = 1,即为stochastic gradient descent。缺点:失去了所有向量化带来的加速。
下图给出了batch、mini-batch、SGD在梯度下降时情形。
因此,在实践中mini-batch size的值设为1~m之间,可以实现最快的学习。这样的mini-batch gradient descent不会总朝着最小值靠近,但它比随机梯度下降要更持续的靠近最小值的方向,而且优化速度会快于batch gradient descent。
mini-batch size选择的指导原则:
1、如果训练集较小(少于2000个样本),直接使用batch gradient descent
2、 典型的mini-batch size大小:64~512,若将mini-batch size设置为2的幂,代码会跑的快一些,即设置为64、128、256、512。
3、make sure
下面将介绍几种比梯度下降法更高效的优化算法。
2.3 exponentially weighted averages
指数加权平均,也叫指数加权移动平均
2.4 understanding exponentially weighted averages
如下图所示,将
其中,前面的系数就是权重,如图中蓝色曲线所示,可以看到权重是指数衰减的,这也就是指数加权平均名称的由来。
所以,
实现:
2.5 bias correction in exponentially weighted averages-指数加权平均的偏差修正
为什么需要偏差矫正?因为在开始做指数加权平均时,我们假设
这样,在开始的时候,t较小,对
在机器学习中,很多人不在乎使用bias correction,因为他们不在意刚开始的值,更注重之后得到的计算结果。如果比较关心初期时候的bias,那么bias correction能帮助你获得较好的估测。
2.6 gradient descent with momentum
momentum的运行速度几乎总是快于标准梯度下降法。它的基本思想就是计算梯度的指数加权平均,再利用该加权平均来更新权重。该算法对碗状代价函数效果好。
-
vdw=0 ,vdb=0 (和w,b具有相同的维度) - 对每次的迭代t:
- 计算dw,db,在当前的mini-batch
vdw=βvdw+(1−β)dw ,w的移动平均数vdb=βvdb+(1−β)db ,b的移动平均数
更新权重w:=w−αvdw b:=b−αvdb
通过加权平均,可以使得梯度在摆动大的维度减小摆动,在无摆动的维度快速下降,这样可以减缓梯度下降的幅度,让算法在抵达最小值的路上减少了摆动。将微分项
momentum实现的时候需要两个超参数
2.7 RMSprop
RMSprop(root mean square prop)也可以加速梯度下降。当在进行梯度下降时,我们想放缓某些轴上的下降速度,加速(至少不放缓)另一些轴上的下降速度,这时候就需要RMSprop。
-
Sdw=0 ,Sdb=0 (和w,b具有相同的维度) - 对每次的迭代t:
- 计算dw,db,在当前的mini-batch
Sdw=βSdw+(1−β)(dw)2 ,element-wise square operationSdb=βSdb+(1−β)(db)2 ,element-wise square operation
更新权重w:=w−αdwSdw√+ε,ε=10−8 b:=b−αdbSdb√+ε
当db较大,dw较小的时候,这样就可以使用一个较大的学习率,而不必担心在某些轴上的偏离较大。
2.8 Adam optimization algorithm
可将Adam看作momentum和RMSprop的结合是一种及其常用的学习算法,能有效适用于不同的神经网络。Adam是Adaptive Moment Estimation。一般在实现Adam算法的时候,都要进行bias correction。
-
vdw=0 ,vdb=0 ,Sdw=0 ,Sdb=0 (和w,b具有相同的维度) - 对每次的迭代t:
- 计算dw,db,在当前的mini-batch
vdw=β1vdw+(1−β1)dw vdb=β1vdb+(1−β1)db Sdw=β2Sdw+(1−β2)(dw)2 Sdb=β2Sdb+(1−β2)(db)2 vcorrecteddw=vdw1−βt1 vcorrecteddb=vdb1−βt1 Scorrecteddw=Sdw1−βt2 Scorrecteddb=Sdb1−βt2
更新权重w:=w−αvcorrecteddwScorrecteddw√+ε ,一般情况下ε 取10−8 b:=b−αvcorrecteddbScorrecteddb√+ε
该算法有很多超参数,学习率
2.9 learning rate decay
- 另一个加快学习算法的方法就是学习率衰减。设初始学习率为
α0 ,则随着学习的进行, -
α=11+decay_rate∗epoch_numα0 - 因此,若要使用学习率衰减,就需要尝试很多
α0 和dacay_rate,直到找到合适的值。 - 除了上述方法外,还有其他的衰减方法,比如
- 指数衰减:
α=Kepochα0 ,比如K=0.95α=Kepoch_num√α0 或者α=Kt√α0
或者离散下降的α 值。
2.10 The problem of local optima
在创建神经网络时,大多数情况下,梯度为0的点并不是局部最优点,而是鞍点(saddle point),这与我们之前以为的那些坑坑洼洼的三维图像中的局部最优点差别很大,或者说,我们之前都以为错了。因为,当维数很高的时候,并不能保证每一维在梯度为0的点上都是向上弯曲的,它也有可能是向下弯曲的,因此,就形成了鞍点,而不是我们之前以为的局部最优点。这样,我们就不存在局部最优的问题了。如下图
那么到底问题在哪?
1. 不太可能陷入不好的局部最优中
2. 平稳段使得学习变得非常缓慢,这种情况下,就要momentum、RMSprop或Adam这样的算法来加速走出平稳段。