梯度提升树GBDT原理

1.模型

提升方法实际采用加法模型(即基函数的线性组合)与前向分布算法。以决策树为基函数的提升方法称为提升树(boosting tree)。对分类问题决策树是二叉分类树,对回归问题决策树是二叉决策树。提升树模型可以表示为决策树的加法模型:梯度提升树GBDT原理 
其中,梯度提升树GBDT原理表示决策树;梯度提升树GBDT原理为决策树的参数;M为树的个数

2.学习过程

回归问题提升树使用以下前向分布算法

梯度提升树GBDT原理

在前向分布算法的第m步,给定当前模型梯度提升树GBDT原理,需求解

梯度提升树GBDT原理

得到梯度提升树GBDT原理,即第m棵树的参数

当采用平方误差损失函数时梯度提升树GBDT原理

其损失变为梯度提升树GBDT原理

其中,梯度提升树GBDT原理是当前模型拟合数据的残差(residual)对于平方损失函数,拟合的就是残差;对于一般损失函数(梯度下降),拟合的就是残差的近似值

3.算法

输入:训练数据集梯度提升树GBDT原理

输出:提升树梯度提升树GBDT原理

算法流程: 
(1)初始化梯度提升树GBDT原理 
(2)对m = 1,2,…,M

  1. 计算残差梯度提升树GBDT原理
  2. 拟合残差学习一个回归树,得到梯度提升树GBDT原理
  3. 更新梯度提升树GBDT原理

(3)得到回归问题提升树梯度提升树GBDT原理

附sklearn中GBDT文档 地址

4.GBDT并行

这部分整理自网络资源,思路很好,可以借鉴

  • 非递归建树 
    • 节点的存放 
      梯度提升树GBDT原理
    • 终止条件 
      • 树的节点数
      • 树的深度
      • 没有适合分割的节点
  • 特征值排序 
    • 在对每个节点进行分割的时候,首先需要遍历所有的特征,然后对每个样本的特征的值进行枚举计算。(CART)
    • 在对单个特征量进行枚举取值之前,我们可以先将该特征量的所有取值进行排序,然后再进行排序。
    • 优点 
      • 避免计算重复的value值
      • 方便更佳分割值的确定
      • 减少信息的重复计算
  • 多线程/MPI并行化的实现 
    • 通过MPI实现对GBDT的并行化,最主要的步骤是在建树的过程中,由于每个特征值计算最佳分割值是相互独立的,故可以对特征进行平分,再同时进行计算。 
      梯度提升树GBDT原理
  • MPI并行化的实现 
    • 主线程 
      梯度提升树GBDT原理
    • 其他线程 
      梯度提升树GBDT原理

参考 
(1)统计学习方法