欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶

一.欠拟合和过拟合

1.1训练误差与泛化误差
在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。

1.2 模型选择
1.2.1 验证数据集
从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。
1.2.2 K折交叉验证
由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validation)。在K折交叉验证中,我们把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。

1.3 过拟合和欠拟合
一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting);
另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。

1.4 模型复杂度
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
给定训练数据集,模型复杂度和误差之间的关系:
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
1.5 训练数据集大小
一般来说,如果训练数据集中样本数过少,特别是比模型参数数量(按元素计)更少时,过拟合更容易发生。此外,泛化误差不会随训练数据集里样本数量增加而增大。

1.6 L2 范数正则化
正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。
将权重参数用向量w=[w1,w2]表示,带有L2范数惩罚项的新损失函数为
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
其中超参数λ>0。当权重参数均为0时,惩罚项最小。当λ较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当λ设为0时,惩罚项完全不起作用。在小批量随机梯度下降中,我们将线性回归一节中权重w1w2的迭代方式更改为
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
1.7 丢弃法
设丢弃概率为p,那么有p的概率hi会被清零,有1−p的概率hi会除以1−p做拉伸。丢弃概率是丢弃法的超参数。具体来说,设随机变量ξi为0和1的概率分别为p和1−p。使用丢弃法时我们计算新的隐藏单元hi′
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
即丢弃法不改变其输入的期望值。由于在训练中隐藏层神经元的丢弃是随机的,即h1,…,h5都有可能被清零,输出层的计算无法过度依赖h1,…,h5中的任一个,从而在训练模型时起到正则化的作用,并可以用来应对过拟合。在测试模型时,我们为了拿到更加确定性的结果,一般不使用丢弃法
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶

二.梯度消失和梯度爆炸

2.1 梯度消失和梯度爆炸
当神经网络的层数较多时,模型的数值稳定性容易变差。
假设一个层数为L的多层感知机的第l层H(l)的权重参数为W(l),输出层H(L)的权重参数为W(L)。为了便于讨论,不考虑偏差参数,且设所有隐藏层的**函数为恒等映射(identity mapping)ϕ(x)=x。给定输入X,多层感知机的第l层的输出H(l)=XW(1)W(2)…W(l)。此时,如果层数l较大,H(l) 的计算可能会出现衰减或爆炸。举个例子,假设输入和所有层的权重参数都是标量,如权重参数为0.2和5,多层感知机的第30层输出为输入X分别与0.230≈ 1×10-21(消失)和530≈9×1020(爆炸)的乘积。当层数较多时,梯度的计算也容易出现消失或爆炸。

2.2 考虑环境因素
2.2.1 协变量偏移
这里我们假设,虽然输入的分布可能随时间而改变,但是标记函数,即条件分布P(y∣x)不会改变。例子:一个在冬季部署的物品推荐系统在夏季的物品推荐列表中出现了圣诞礼物。 可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象, 这个现象是由于协变量时间发生了变化造成的。

2.2.2 标签偏移
当我们认为导致偏移的是标签P(y)上的边缘分布的变化,但类条件分布是不变的P(x∣y)时,就会出现相反的问题。当我们认为y导致x时,标签偏移是一个合理的假设。例子:
病因(要预测的诊断结果)导致 症状(观察到的结果)。
训练数据集,数据很少只包含流感p(y)的样本。
而测试数据集有流感p(y)和流感q(y),其中不变的是流感症状p(x|y)。

2.2.3 概念偏移
另一个相关的问题出现在概念转换中,即标签本身的定义发生变化的情况。

三.循环神经网络进阶

3.1 GRU
RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT)
RNN:
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
GRU
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
3.2 LSTM(long short-term memory)
遗忘门:控制上一时间步的记忆细胞 输入门:控制当前时间步的输入
输出门:控制从记忆细胞到隐藏状态
记忆细胞:⼀种特殊的隐藏状态的信息的流动
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶

3.3 深度循环神经网络
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶
3.4 双向循环神经网络
欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶