4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授

偏差与方差

在机器学习中,偏差(bias) 反映了模型无法描述数据规律,而 方差(variance) 反映了模型对训练集过度敏感,而丢失了数据规律,高偏差和高方差都会造成新数据到来时,模型给出错误的预测。

通过 诊断(Diagnose) 模型是出现了高偏差问题还是高方差问题,我们能对症下药,采取不同的解决策略。

多项式回归中偏差与方差

4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授
在前面的章节中,我们知道,多项式回归中,如果多项式次数较高,则容易造成过拟合,此时训练误差很低,但是对于新数据的泛化能力较差,导致交叉验证集和测试集的误差都很高,此时模型出现了高方差

Jtrain(θ) is smallJ_{train}(θ)\ is\ smallJcv(θ)>>jtest(θ)J_{cv}(θ)>>j_{test}(θ)

而当次数较低时,又易出现欠拟合的状况,此时无论是训练集,交叉验证集,还是测试集,都会有很高的误差,此时模型出现了高偏差

Jtrain(θ) is largeJ_{train}(θ)\ is\ largeJcv(θ)jtest(θ)J_{cv}(θ)≈j_{test}(θ)

下图反映了训练集、交叉验证集误差随多项式次数 dd 的变化规律:
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授

正规化过程的偏差与方差

正规化(Regularization)能帮我们解决过拟合问题, λλ 取值越大,对参数 θθ 的惩罚力度就越大,能够帮助解决过拟合问题,但是,如果惩罚过重,也会造成欠拟合问题,即会出现高偏差。如果 λλ 取值较小,则意味着没有惩罚 θθ ,也就不能解决过拟合问题,会出较高方差
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授
下图反映了正规化过程中,训练集、交叉验证集误差随 λλ 变化的曲线:
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授

样本数目对与偏差方差的影响

当训练样本的数目 mm 较小时,意味着可供学习的知识较少,则模型在训练阶段不容易犯错误(训练集误差极低),但也发现不了数据的规律(交叉验证集误差极高);而当样本数目增多时,意味着需要学习的知识增多,则模型虽然在训练阶段容易犯一些错(训练集误差开始增高),但也更容易探测出数据规律(交叉验证集误差降低):
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授
如果模型出现了高偏差,即出现了欠拟合,学习曲线随样本数目的变化曲线如下图所示,即增加样本数目,仍无法显著降低交叉验证集误差,即无法提高模型的泛化能力:
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授
如果模型出现了高方差,即出现了过拟合,学习曲线随着样本数目变化的曲线如下图所示,即增加样本数目,可以显著降低交叉验证集的误差,提高模型的泛化能力:
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授

神经网络结构对偏差方差的影响

当神经网络的结构简单时,则易出现高偏差:
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授
当神经网络的结构过于复杂时,则易出现高方差,此时可以通过增大 λλ 来解决:
4.3 偏差与方差-机器学习笔记-斯坦福吴恩达教授

总结

现在,通过诊断模型是出现了高偏差还是高方差问题,我们对于在陷入不归路的调试中提到算法优化手段有了各自的使用场景:

Column 1 Column 2
centered 文本居中 right-aligned 文本居右
手段 使用场景
采集更多的样本 高方差
降低特征维度 高方差
采集更多的特征 高偏差
进行高次多项式回归 高偏差
降低参数 λλ 高方差
增大参数 λλ 高偏差