统计学习方法——统计学习基础(二)

统计学习概论(二)

模型评估与模型选择(二)

前面接受了进行模型评估和选择会涉及到一些概念,这里我们介绍一些评估选择的方法。

正则化

模型选择的典型方法是正则化,正则化也是结构风险最小化策略的实现。在说明正则化之前,首先要提到奥卡姆剃刀原理,因为正则化是符合这个原理的。

奥卡姆剃刀原理:“如无必要,勿增实体”,即“简单有效原理”。

放在模型选择中也就是说在所有可能选择的模型中,应该选择既能很好地解释已知数据又是十分简单的模型。

前面已经介绍过加入正则化后的经验风险(结构风险),一般形式如下:
minfF1Ni=1NL(yi,f(xi))+λJ(f)\mathop {\min }\limits_{f \in \mathcal{F}} \frac{1}{N}\sum\limits_{i = 1}^N {L\left( {{y_i},f\left( {{x_i}} \right)} \right) + \lambda J\left( f \right)}
其中第一项为经验风险,第二项为正则化项。
正则化的其他形式(在回归问题中,损失函数是平方损失,正则化项可以是参数向量的范数):

  • L2L_2范数:L(w)=1Ni=1N(f(xi;w)yi)2+λ2w2L\left( w \right) = \frac{1}{N}\sum\limits_{i = 1}^N {{{\left( {f\left( {{x_i};w} \right) - {y_i}} \right)}^2}} + \frac{\lambda }{2}{\left\| w \right\|^2}
    其中ww表示参数向量,w\left\| w \right\|表示其L2L_2范数。式子前半部分计算的仍然是经验风险。
  • L1L_1范数:L(w)=1Ni=1N(f(xi;w)yi)2+λ2w1L\left( w \right) = \frac{1}{N}\sum\limits_{i = 1}^N {{{\left( {f\left( {{x_i};w} \right) - {y_i}} \right)}^2}} + \frac{\lambda }{2}{\left\| w \right\|_1}

留出法、交叉验证与自助法

这几种都是通过实验测试对模型进行评估与选择的。
需要注意的是:测试集应该与训练集互斥。

  • 留出法
    直接将数据集划分为两个互斥的集合,一个作为训练集,一个作为测试集。
    • 注意点
      • 划分应尽可能保证数据分布的一致性;
      • 确定划分的比例后仍会存在多种划分方式,因此需要使用若干次随即划分、重复实验取均值。
    • 存在的问题
      • 训练集与测试集的划分比例不好确定,一般使用2/34/52/3\sim 4/5
  • 交叉验证法
    将数据集划分为kk个大小相似的互斥子集,并尽可能保证数据分布的一致性。每次选择其中k1k-1作为训练集,剩下的一个作为测试集,进行kk次。
    • 注意点
      • 与留出法类似,也需要进行多次随机划分,常见的有“10次10折交叉验证”
    • 存在的问题
      • 高昂的计算开销。
  • 自助法
    以自助采样法为基础,从总样本(mm个)中有重复地抽取mm次构成训练集,显然总样本中有一部分样本不会出现在训练集中,将这些样本(约占总样本的36.8%36.8\%)作为测试集。
    • 注意点
      • 数据集较小、难以有效划分数据时很有用。
      • 对集成学习方法有很大好处。
    • 存在的问题
      • 改变了数据集分布,会引入估计偏差。
一个简单的分析(36.8%的由来):
每个样本每次被选中地可能性是1/m;
不配选中的可能性则是(1-1/m);
m次都未被选到则是(1-1/m)^m;
当m的值趋近于无穷时,这个值约等于0.368。

泛化能力

学习方法的泛化能力指的是有该方法学习到的模型对未知数据的预测能力。

泛化误差

假设学得的模型为f^\hat f,则该模型对未知数据预测的误差即为泛化误差:
Rexp(f^)=EP[L(Y,f^(X))]=X×YL(Y,f^(X))P(x,y)dxdy{R_{\exp }}\left( {\hat f} \right) = {E_P}\left[ {L\left( {Y,\hat f\left( X \right)} \right)} \right] = \int_{\mathcal{X} \times \mathcal{Y}} {L\left( {Y,\hat f\left( X \right)} \right)P\left( {x,y} \right)dxdy}

泛化误差上界

  • 存在的性质
    • 为样本数量的函数,随其增大上界趋近于00
    • 为假设空间容量的函数,假设空间越大,泛化误差上界越大
  • 以二分类且假设空间有限的问题为例
    对二分类问题,当假设空间容量为dd,训练集样本数量为NN时,对于任意fFf\in \mathcal{F},至少以1δ1-\delta的概率,存在下式
    R(f)R^(f)+ε(d,N,δ)R\left( f \right) \le \hat R\left( f \right) + \varepsilon \left( {d,N,\delta } \right)
    其中R(f)=E[L(Y,f(X))]R\left( f \right) = E\left[ {L\left( {Y,f\left( X \right)} \right)} \right]为期望风险,R^(f)=1Ni=1NL(yi,f(xi))\hat R\left( f \right) = \frac{1}{N}\sum\limits_{i = 1}^N {L\left( {{y_i},f\left( {{x_i}} \right)} \right)}为经验风险,ε(d,N,δ)=12N(logd+log1δ)\varepsilon \left( {d,N,\delta } \right) = \sqrt {\frac{1}{{2N}}\left( {\log d + \log \frac{1}{\delta }} \right)}

生成模型与判别模型

生成模型

由数据学习联合概率分布P(X,Y)P\left( {X,Y} \right),然后求出条件概率分布P(YX)P\left( {Y\left| X \right.} \right)作为预测模型,即生成模型
P(YX)=P(X,Y)P(X)P\left( {Y\left| X \right.} \right) = \frac{{P\left( {X,Y} \right)}}{{P\left( X \right)}}

  • 特点:
    • 模型表示了给定输入XX产出输出YY的生成关系。
    • 可以还原出联合概率分布。
    • 学习收敛速度快。
    • 存在隐变量,仍可使生成方法产生生成模型。
  • 典型模型:朴素贝叶斯、隐马尔科夫模型

判别模型

直接学习决策函数f(X)f\left( X \right)或条件概率分布P(YX)P\left( {Y\left| X \right.} \right)作为预测的模型。

  • 特点
    • 直接学习f(X)f\left( X \right),直面预测,往往准确率更高。
    • 可对数据进行各种程度上的抽象、定义特征并使用特征,可以简化问题。
  • 典型模型:kk近邻、SVM、决策树、逻辑回归、最大熵模型、感知机、提升方法、条件随机场等。

主要问题

分类问题

对新的样本进行划分,将其标记为某一类别。此时,输出变量YY为有限个离散值。

  • 评价分类问题的指标
    • 准确率:分类正确样本数占总样本数的比例
    • 二分类指标
      统计学习方法——统计学习基础(二)
      • 准确率(查准率):P=TPTP+FPP = \frac{{TP}}{{TP + FP}}
      • 召回率(查全率):R=TPTP+FNR = \frac{{TP}}{{TP + FN}}
      • P-R图
        统计学习方法——统计学习基础(二)
        • 特点
          • 直观反映查全率和查准率之间的特点
          • 若一个模型的R-P图完全被另一个模型的所“包住”,则后者性能由于前者
      • F1F_1值:F1=2TP2TP+FP+FNF_1 = \frac{{2TP}}{{2TP + FP+FN}}
      • Fβ{F_\beta }值:Fβ=(1+β2)×P×R(β2×P)+R{F_\beta } = \frac{{\left( {1 + {\beta ^2}} \right) \times P \times R}}{{\left( {{\beta ^2} \times P} \right) + R}},之中β\beta为对查全率和查准率的偏好,>1>1查全率影响大,<1<1查准率影响大。

标注问题

标注问题是分类问题的推广,其输入为一个观测序列,输出为标记序列或状态序列。

回归问题

回归问题是预测输入值与输出值之间的关系,主要分为线性回归和非线性回归。
最常使用的损失函数:平方损失函数
求解:可采用最小二乘法