机器学习--xgboost算法过程推导

一 .概述

xgboost是boosting算法的其中一种,该算法思想就是不断地添加树,不断地进行特征分裂来生长一棵树,每次添加一个树,其实是学习一个新函数,去拟合上次预测的残差。具体的目标函数如下:
机器学习--xgboost算法过程推导
主要就是找到ft来优化这一目标函数,通过一个简单的例子来形象的理解该目标函数。例如是小明真实有100个糖果,现在建立一个决策系统来预测小明有多少个糖。首先建立一棵树,记为树1,它的预测结果是90个,这时得到一个残差,这个残差值就是100-90=10,此时和真实值差别是10。为了提高精度,可以在该决策系统中再添加一棵树,记为树2。树2就是为了弥补上一棵树存在的残差,假设它的预测结果是5,此时总体的残差值是10-5=5,即和真实值相差为5。符号化表示:之前的结果10表示为输出结果为yˆ1 ,即上一时刻的残差值,树2的值为f2 ,此时得到的值。接着可以再建立第三课树,记为树3。假设它的预测值为3,此时总体的残差值是5-3=2,即和真实值相差为2。符号化表示:上一时刻输出结果5为yˆ2 ,即上一时刻的残差值,树3为f3 ,此时得到值。xgboost的目标就是通过找到ft 来优化这一目标函数,使得最终结果足够小。下面对该函数进行推导化简。

二 目标函数化简

1、预备知识,泰勒展开式。主要使用泰勒展开式来近似原来的目标函数
机器学习--xgboost算法过程推导
2、推导过程:
机器学习--xgboost算法过程推导
机器学习--xgboost算法过程推导
机器学习--xgboost算法过程推导
机器学习--xgboost算法过程推导

  • 正则化项目选择了数据树的叶子个数,以及叶子权值大小平方。为了防止树在训练过程中过度复杂。当然这不是唯一的一种定义方式,不过这一定义方式学习出的树效果一般都比较不错。下图还给出了正则化项目计算的一个例子。
    机器学习--xgboost算法过程推导
  • 式(6)主要的变换是将对样本的遍历,转换为对树的叶子结点的遍历。(理解部分:假设一共5个样本,其*有两个样本落在上图树中的leaf1,一个样本落在leaf2中,还有两个样本落在leaf3中。式(5)是直接统计各个样本的值,式(6)则是直接遍历叶子,遍历leaf1时可以取得统计2个样本的值,leaf2时可以取得统计1个样本的值, leaf3时可以取得统计2个样本的值,同样可以访问所有的样本。在叶子上遍历更加方便计算)。式(6)中就是统计落在每个叶子结点中所有的样本的一阶导数gi和该叶子结点权值w的乘积,同时二阶导数hi 和该叶子结点权值w的乘积(每个样本的gi和hi都不一样)。
  • 使式中Gj表示当前叶子结点所有样本一阶导数的和,同理Hj 表示当前样本所有二阶导数的和

3 目标函数转换
机器学习--xgboost算法过程推导
使得式(8)最小,令
机器学习--xgboost算法过程推导
得到
机器学习--xgboost算法过程推导
将(10)代入(9)得到:
机器学习--xgboost算法过程推导
举例说明:下图公有5个样本,三个叶子结点,计算的目标函数如下,最终的目标是得到最小值:
机器学习--xgboost算法过程推导

三 分支机器学习--xgboost算法过程推导

如何找到最佳的分支切割点,如上图所示。如何选取合适的a点分割,使目标函数值变小。这里是基于式(11),得到分支增益的公式:
机器学习--xgboost算法过程推导
选取是Gain最小的切割点进行分支。