机器学习-1-朴素贝叶斯

- 引言

  • 朴素贝叶斯(naive Bayes)是基于贝叶斯订立和特征条件独立假设的分类方法;
  • 对于给定的训练集和,基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯订立求出后验概率最大的输出y;
    (朴素贝叶斯和贝叶斯估计(Bayesian estimation)是不同的概念。)

- 基本方法

  • 朴素贝叶斯的方法是通过训练数据学习出联合条件概率分布P(X,Y),然后通过做条件性独立假设(朴素贝叶斯名称的由来),学习出条件概率分布P(X=x|Y=ck),从而利用贝叶斯公式P(Y=ck|X=x) = ((P(X=x|Y=ck) * P(Y=ck)) / ((P(X=x|Y=c1) * P(Y=c1) + (P(X=x|Y=c2) * P(Y=c2) + …),在做分类问题时,通过计算出每个x对应的后验概率值P(Y=ck|X=x),将后验概率最大的类作为x的类输出即可.具体的标准化公式如下:
    机器学习-1-朴素贝叶斯

  • 具体地,P(X=x|Y=ck)通过条件独立性假设求出(条件独立假设等于是说用于分类的特征在类确定的情况下都是条件独立的,所以直接将各种情况的条件概率相乘从而获得整体的条件概率分布)
    机器学习-1-朴素贝叶斯

  • 所以总的来说,有如下公式:
    机器学习-1-朴素贝叶斯

  • 于是朴素贝叶斯分类器可以表示为:
    机器学习-1-朴素贝叶斯

  • 但是上述公示的分母对于所有ck都是相同的,所以上述公式可以简化为:
    机器学习-1-朴素贝叶斯

- 后验概率最大化的含义

  • 朴素贝叶斯法将实例分到后验概率最大的类中,这等价于期望风险最小化。假设选择0-1损失函数:
    机器学习-1-朴素贝叶斯

  • 上式中f(X)是分类决策函数,这是,期望风险函数为:
    机器学习-1-朴素贝叶斯

  • 期望是对联合分布P(X,Y)取的,所以条件期望是:
    机器学习-1-朴素贝叶斯

  • 为了使期望风险最小化,只需要对X=x逐个极小化,由此得到:
    机器学习-1-朴素贝叶斯

  • 这样,期望风险最小化就得到了后验概率最大化准则:
    机器学习-1-朴素贝叶斯

- 总结

  • 朴素贝叶斯是典型的生成模型,它由给定的训练数据学习出联合条件概率分布P(X,Y),求得后验概率分布P(Y|X)。具体地,利用训练数据求出P(X|Y)和P(Y)的估计,从而得到联合概率分布P(X,Y)=P(Y)P(X|Y);
  • 朴素贝叶斯法的基本假设是条件独立(见上图),这是一个强假设,基于该假设,模型包含的条件概率数量大大减少,模型的学习和预测极大简化,但是导致的缺点是分类性能不高;
  • 朴素贝叶斯利用贝叶斯定理和学习到的联合概率模型进行分类预测,将输入x分到后验概率最大的类y中;
    机器学习-1-朴素贝叶斯

  • 以上;