【机器学习】- 极简系列 - 决策树

前置知识:

1、熵、条件熵、信息增益
熵与条件熵的定义为:
【机器学习】- 极简系列 - 决策树
【机器学习】- 极简系列 - 决策树

熵能表示随即变量的不确定性。根据等价无穷小的有:logx->x-1,xlogx->x(x-1)。基于此来验证下面的公式可以看出,当p为0或者1的时候,熵最下=0。这符合我们对不确定性的理解。实际上,对于一个二分类问题有:

【机器学习】- 极简系列 - 决策树
【机器学习】- 极简系列 - 决策树

2、基尼指数
【机器学习】- 极简系列 - 决策树
【机器学习】- 极简系列 - 决策树
【机器学习】- 极简系列 - 决策树

第一部分:决策树

1.1 特征选择

ID3:最大化的信息增益。
C4.5:最大化信息增益比。

1.2 决策树的生成

递归的进行特征选择
【机器学习】- 极简系列 - 决策树
【机器学习】- 极简系列 - 决策树

1.3 剪枝 【机器学习】- 极简系列 - 决策树

【机器学习】- 极简系列 - 决策树
【机器学习】- 极简系列 - 决策树

第二部分 CART

CART算法假设决策树是二叉树。
【机器学习】- 极简系列 - 决策树

2.1 回归树

【机器学习】- 极简系列 - 决策树
【机器学习】- 极简系列 - 决策树

算法理解:
遍历所有的切分变量与切分点,每一次确定一种划分后:根据公式计算响应的平方差的和,最小值对应的切分变量与切分点就是最佳值。继续在子集上进项相同的操作,知道满足停止条件。

2.2 分类树

【机器学习】- 极简系列 - 决策树

算法理解:类似于会归属,需要选择最佳的切分变量与切分点,区别在于回归树用最小二乘法选择,而分类树用基尼指数选择。

小结:决策树算法考量不同特征划分数据集带来的信息增益,不会考虑切分点,所以假如特征有M个候选值,那么就会有M叉,但是CART算法考虑切分变量+切分点的最佳组合,所以生成的是二叉树。
【机器学习】- 极简系列 - 决策树

例题:

ID3决策树
CART回归树
CART决策树

参考:《统计学习方法》