优化问题综述(一)无约束最优化问题的解法中用于神经网络的常见算法
优化问题是解决形如
的问题,是损失函数,是正则化约束,是可行域。
我们令,对已知信息的多少可把这个问题分为
- 2阶问题:已知的函数值、1阶、2阶导数(值、梯度、hessen矩阵)
- 1阶问题:已知的函数值、1阶导数(值、梯度)
- 0阶问题:只知道的函数值(值)
- -1阶问题:只知道的估计值
当可行域为整个空间时,优化问题被成为无约束的最优化问题;当可行域受到限制时,优化问题被成为有约束的最优化问题。
无约束最优化问题的解法
我们希望得到,我们把泰勒展开可得
1阶问题中用于神经网络的常见算法
当已知时,我们可知,将往与相反的方向走一小步,会下降,那么我们可以得到递推公式
为步长大小。观察递推公式,我们可知可以从步长和梯度进行优化。
Gradient Descent Optimizer
tf.train.GradientDescentOptimizer(learning_rate, name=’GradientDescent’)
最朴素的算法,直接利用梯度递推公式进行优化,步长可为定值或指数衰减。
他的缺点很明显:
- 很难选择出合适的学习率
- 相同的学习率并不适用于所有的参数
- 在神经网络中,非凸问题关键是要避免陷入局部最小值或自鞍点,梯度下降法并不能很好的解决
Momentum Optimizer
tf.train.MomentumOptimizer(learning_rate, momentum, use_nesterov=False, name=’Momentum’)
添加上步的更新分量到当前,可以一定程度上避免陷入局部最小值或自鞍点。直观的理解就是给运动加上了惯性。与梯度下降相比,加速收敛,提高精度(减少收敛过程中的振荡)。递推公式为
一般设置为0.9。
Nesterov Momentum Optimizer
tf.train.MomentumOptimizer(learning_rate, momentum, use_nesterov=True, name=’Momentum’)
添加上步的更新分量到当前,并预测下一时刻的动量来修正。递推公式为
Adagrad
tf.train.AdagradOptimizer(learning_rate, initial_accumulator_value=0.1, name=’Adagrad’)
对稀疏参数(例如神经网络中有些**函数**的概率很低,那相应通路上的参数就很难进行更新)进行大幅更新和对频率参数小幅更新,适合处理稀疏数据。递推公式:
是梯度的第个分量。梯度较大的减小步长,防止跑过,梯度较小增加步长,加速。缺点步长总是在衰减。
直观的理解各分量步长不同可以想象优化的loss函数等高线并不是一个球,而是一个椭球,当然最快的下降线路并不是沿等高线的法线(梯度方向),而是有个偏斜,Adagrad就是解决这个问题的。
Adadelta
tf.train.AdadeltaOptimizer(learning_rate=0.001, rho=0.95, epsilon=1e-08, name=’Adadelta’)
训练初中期,加速效果很好,后期会抖动,不需要设置步长。递推公式为:
Adadelta的直观理解是使得更新的的量纲与相同,而且对的影响指数衰减,所以采用这种形式。
RMSprop
tf.train.RMSPropOptimizer(learning_rate, decay=0.9, momentum=0.0, epsilon=1e-10, name=’RMSProp’)
与Adadelta对于处理想法相同, 对的影响指数衰减。
Adam
tf.train.AdamOptimizer(learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, name=’Adam’)
相当于给梯度加入了动量。
梯度的一阶矩估计:
梯度的二阶矩估计:
校正:
校正的原因是因为初始时,会偏小,放大修正。
递推公式:
Adam的变体
Adamax:
对梯度的学习率范围有了更好的约束
Nadam:带有Nesterov动量项的Adam
梯度:
梯度的一阶矩估计:
梯度的二阶矩估计:
递推公式:
Adam+GD
由于GD一般训练时间更长,容易陷入鞍点, 但在好的初始化和学习率调度方案下,结果更可靠。
更为复杂的方法收敛速度快,但是在最优点附近没有GD收敛的效果好。
那么我们可以先Nadam到最优点附近,再切换SGD,具体做法是
先用Nadam进行优化,每隔150步学习速率衰减10倍,计算Nadam及等效学习速率,当学习速率几乎不变时,切换GD,GD的学习速率为Nadam此时的等效学习速率。
- Inputs: Objective function , initial point , learning rate , accumulator
,, phase=Adam - Initialize: , , ,
- while stopping criterion not met do
- Compute stochastic gradient
- If phase=SGD then
- continue
- End if
- if then
- if and then
- phase = SGD
- $v_k=0
- end if
- else
- end if
- end while
- return
一般形式
梯度的一阶矩估计:
梯度的二阶矩估计:
递推公式:
两招加速:动量(Nesterov),二阶矩
可视化
加了二阶矩的优化算法看起来比只加动量的从收敛速度和最终精度来看,都要好一些。
tf中的其他Optimizer
tf.train.SyncReplicasOptimizer # 多个Optimizer同步
tf.train.FtrlOptimizer # FTRL算法,加L1正则的感觉
tf.train.ProximalGradientDescentOptimizer # 加L1,L2正则
tf.train.ProximalAdagradOptimizer # 加L1,L2正则