Datawhale&kesci&伯禹教育-深度学习-第二次打卡1 过拟合&欠拟合的解决方法

训练误差和泛化误差

训练误差: 在训练数据上表现得误差
泛化误差:在任意测试数据上表现的误差的期望
通过损失来衡量误差。例如,线性回归用平方损失函数,softma用的交叉熵回归。
模型的核心是降低泛化误差。

常见训练数据划分方法

1.留有一定比例的验证集
2. K折交叉验证

欠拟合(无法得到较低的误差)和过拟合(训练误差远小于测试误差)

产生的原因: 模型复杂度和训练数据

1.模型复杂度
Datawhale&kesci&伯禹教育-深度学习-第二次打卡1 过拟合&欠拟合的解决方法2. 训练数据
一般来说训练数据随模型成正比例关系。

解决方法 : L2范数正则化

通过模型的计算误差来惩罚模型
公式上计算 为权重参数每个元素的平方和一个正数的乘积

(w1,w2,b)=1ni=1n12(x1(i)w1+x2(i)w2+by(i))2 \ell(w_1, w_2, b) = \frac{1}{n} \sum_{i=1}^n \frac{1}{2}\left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right)^2

其中w1,w2w_1, w_2是权重参数,bb是偏差参数,样本ii的输入为x1(i),x2(i)x_1^{(i)}, x_2^{(i)},标签为y(i)y^{(i)},样本数为nn。将权重参数用向量w=[w1,w2]\boldsymbol{w} = [w_1, w_2]表示,带有L2L_2范数惩罚项的新损失函数为

(w1,w2,b)+λ2nw2, \ell(w_1, w_2, b) + \frac{\lambda}{2n} |\boldsymbol{w}|^2,

其中超参数λ>0\lambda > 0。当权重参数均为0时,惩罚项最小。当λ\lambda较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当λ\lambda设为0时,惩罚项完全不起作用。上式中L2L_2范数平方w2|\boldsymbol{w}|^2展开后得到w12+w22w_1^2 + w_2^2
有了L2L_2范数惩罚项后,在小批量随机梯度下降中,我们将线性回归一节中权重w1w_1w2w_2的迭代方式更改为

w1(1ηλB)w1ηBiBx1(i)(x1(i)w1+x2(i)w2+by(i)),w2(1ηλB)w2ηBiBx2(i)(x1(i)w1+x2(i)w2+by(i)). \begin{aligned} w_1 &\leftarrow \left(1- \frac{\eta\lambda}{|\mathcal{B}|} \right)w_1 - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}}x_1^{(i)} \left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right),\\ w_2 &\leftarrow \left(1- \frac{\eta\lambda}{|\mathcal{B}|} \right)w_2 - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}}x_2^{(i)} \left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right). \end{aligned}

可见,L2L_2范数正则化令权重w1w_1w2w_2先自乘小于1的数,再减去不含惩罚项的梯度。因此,L2L_2范数正则化又叫权重衰减。权重衰减通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制,这可能对过拟合有效。

丢弃法

多层感知机中神经网络图描述了一个单隐藏层的多层感知机。其中输入个数为4,隐藏单元个数为5,且隐藏单元hih_ii=1,,5i=1, \ldots, 5)的计算表达式为

hi=ϕ(x1w1i+x2w2i+x3w3i+x4w4i+bi) h_i = \phi\left(x_1 w_{1i} + x_2 w_{2i} + x_3 w_{3i} + x_4 w_{4i} + b_i\right)

这里ϕ\phi是**函数,x1,,x4x_1, \ldots, x_4是输入,隐藏单元ii的权重参数为w1i,,w4iw_{1i}, \ldots, w_{4i},偏差参数为bib_i。当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为pp,那么有pp的概率hih_i会被清零,有1p1-p的概率hih_i会除以1p1-p做拉伸。丢弃概率是丢弃法的超参数。具体来说,设随机变量ξi\xi_i为0和1的概率分别为pp1p1-p。使用丢弃法时我们计算新的隐藏单元hih_i'

hi=ξi1phi h_i' = \frac{\xi_i}{1-p} h_i

由于E(ξi)=1pE(\xi_i) = 1-p,因此

E(hi)=E(ξi)1phi=hi E(h_i') = \frac{E(\xi_i)}{1-p}h_i = h_i

即丢弃法不改变其输入的期望值。让我们对之前多层感知机的神经网络中的隐藏层使用丢弃法,一种可能的结果如图所示,其中h2h_2h5h_5被清零。这时输出值的计算不再依赖h2h_2h5h_5,在反向传播时,与这两个隐藏单元相关的权重的梯度均为0。由于在训练中隐藏层神经元的丢弃是随机的,即h1,,h5h_1, \ldots, h_5都有可能被清零,输出层的计算无法过度依赖h1,,h5h_1, \ldots, h_5中的任一个,从而在训练模型时起到正则化的作用,并可以用来应对过拟合。在测试模型时,我们为了拿到更加确定性的结果,一般不使用丢弃法

为什么丢弃法,期望不改变?
Datawhale&kesci&伯禹教育-深度学习-第二次打卡1 过拟合&欠拟合的解决方法