机器学习之XGBoost集成算法、极大似然、牛顿法

一、XGBoost算法

基本构成
boosted tree作为有监督学习算法有几个重要部分:模型、参数、目标函数、优化算法
模型
模型指给定输入x如何去预测输出y
参数
参数指我们需要学习的东西,在线性模型中,参数指我们的线性系数w
目标函数
目标函数:损失 + 正则,教我们如何去寻找一个比较好的参数
一般的目标函数包含下面两项:
机器学习之XGBoost集成算法、极大似然、牛顿法
Bias-variance tradeoff,Bias可以理解为假设我们有无限多数据的时候,可以训练出最好的模型所拿到的误差。而Variance是因为我们只有有限数据,其中随机性带来的误差。
误差函数尽量去拟合训练数据,正则化项则鼓励更加简单的模型。因为当模型简单之后,有限数据拟合出来结果的随机性比较小,不容易过拟合,使得最后模型的预测更加稳定。
优化算法
给定目标函数之后怎么学的问题
Boosted Tree

1、基学习器:分类和回归树(CART)

机器学习之XGBoost集成算法、极大似然、牛顿法
CART会把输入根据输入的属性分配到各个叶子节点,而每个叶子节点上面都会对应一个实数分数。

Tree Ensemble构成
一个CART往往过于简单无法有效地预测,因此一个更加强力的模型叫做tree ensemble。
机器学习之XGBoost集成算法、极大似然、牛顿法
用两棵树来进行预测。我们对于每个样本的预测结果就是每棵树预测分数的和。
tree ensemble
预测函数:

yi^=k=1Kfk(xi),fkf

目标函数:
Obj(Θ)=inl(yi,yi^)+k=1KΩ(fk)

模型学习:additive training
第一部分是训练误差,第二部分是每棵树的复杂度的和。
每一次保留原来的模型不变,加入一个新的函数f到我们的模型中。
机器学习之XGBoost集成算法、极大似然、牛顿法
如何选择每一轮加入什么f呢?
选取一个f来使得我们的目标函数尽量最大地降低(加入f后的预测结果与实际结果误差减少)。
机器学习之XGBoost集成算法、极大似然、牛顿法
对于l是平方误差时:
机器学习之XGBoost集成算法、极大似然、牛顿法
对于l不是平方误差的情况:
采用如下的泰勒展开近似来定义一个近似的目标函数
机器学习之XGBoost集成算法、极大似然、牛顿法
移除常数项(真实值与上一轮的预测值之差),目标函数只依赖于每个数据点的在误差函数上的一阶导数和二阶导数
机器学习之XGBoost集成算法、极大似然、牛顿法
树的复杂度
以上是目标函数中训练误差的部分,接下来定义树的复杂度。
对于f的定义做一下细化,把树拆分成结构函数q(输入x输出叶子节点索引)和叶子权重部分w(输入叶子节点索引输出叶子节点分数),结构函数q把输入映射到叶子的索引号上面去,而w给定了每个索引号对应的叶子分数是什么。
机器学习之XGBoost集成算法、极大似然、牛顿法
定义一棵树的复杂度如下:
一棵树里面叶子节点的个数,以及每个树叶子节点上面输出分数的L2模平方。
机器学习之XGBoost集成算法、极大似然、牛顿法
目标函数改写:
机器学习之XGBoost集成算法、极大似然、牛顿法
其中I被定义为每个叶子上面样本集合Ij={i|q(xi)=ji} (每个叶子节点里面样本集合);
f(xi)等价于求出w(q(xi))的值(每一个样本所在叶子索引的分数) ;T为叶子节点数量。
定义Gj(每个叶子节点里面一阶梯度的和)Hj(每个叶子节点里面二阶梯度的和)
Gj=iIjgi,  Hj=iIjhj

目标函数改写:
机器学习之XGBoost集成算法、极大似然、牛顿法
求偏导得出:
wj=GjHj+λ
Obj=12j=1TGj2Hj+λ+λT

Obj代表了当我们指定一个树的结构的时候,我们在目标上面最多减少多少,可叫做结构分数(structure score),Obj计算示例:
机器学习之XGBoost集成算法、极大似然、牛顿法
枚举所有不同树结构的贪心法
exact greedy algorithm 贪心算法获取最优切分点
利用这个打分函数来寻找出一个最优结构的树,加入到我们的模型中,再重复这样的操作。
常用的方法是贪心法,每一次尝试去对已有的叶子加入一个分割。对于一个具体的分割方案,计算增益:
机器学习之XGBoost集成算法、极大似然、牛顿法
对于每次扩展,如何高效地枚举所有的分割呢
假设我们要枚举所有 x

引入新叶子的惩罚项
优化这个目标对应了树的剪枝, 当引入的分割带来的增益小于一个阀值的时候,我们可以剪掉这个分割。
这样根据推导引入了分裂节点的选取计算分数和叶子的惩罚项,替代了回归树的基尼系数与剪枝操作。
当我们正式地推导目标的时候,像计算分数和剪枝这样的策略都会自然地出现,而不再是一种因为heuristic(启发式)而进行的操作了。
缩减与列抽样
缩减,每一个树生成结果乘以一个步长系数 防止过拟合
列采样样 类似随机森林每个树特征抽样 防止过拟合
以上来自:https://blog.****.net/q383700092/article/details/60954996

二、极大似然估计

设总体X 的分布函数的形式已知, 但含有一个或多个未知参数:θ1,θ2,...,θk
设 X1, X2,…, Xn为总体的一个样本
构造 k 个统计量:

θ1(X1,X2,...,Xn)θ2(X1,X2,...,Xn)....θk(X1,X2,...,Xn)

例1  设总体 X服从参数为λ的指数分布,即有概率密度机器学习之XGBoost集成算法、极大似然、牛顿法
x1,x2,..,xn为来自于总体X的样本值,试求λ的极大似然估计.
解:第一步似然函数为:
L=L(x1,x2,...,xn;λ)=λni=1neλxi=λexp(λi=1nxi)

于是 lnL=nlnλλi=1nxi
第二步: dlnLdλ=ddλ(nlnλλi=1nxi)=nλi=1nxi
第三步:令dlnLdλ=nλi=1nxi=0 λ^=ni=1nxi=1x
经验证,lnL(λ)λ=λ^=1x处达到最大,所以λ^λ的极大似然估计
机器学习之XGBoost集成算法、极大似然、牛顿法
机器学习之XGBoost集成算法、极大似然、牛顿法
机器学习之XGBoost集成算法、极大似然、牛顿法
机器学习之XGBoost集成算法、极大似然、牛顿法
机器学习之XGBoost集成算法、极大似然、牛顿法
机器学习之XGBoost集成算法、极大似然、牛顿法

三、牛顿法

随便找一个曲线上的A点(为什么随便找,根据切线是切点附近的曲线的近似,应该在根点附近找,但是很显然我们现在还不知道根点在哪里),做一个切线,切线的根(就是和x轴的交点)与曲线的根,还有一定的距离。此时从这个切线的根出发,做一根垂线,和曲线相交于B点,继续上面的步骤:
机器学习之XGBoost集成算法、极大似然、牛顿法
机器学习之XGBoost集成算法、极大似然、牛顿法
经过多次迭代后,很明显越来越接近曲线的根了(但只会更接近根),此时称为迭代收敛了。
牛顿法的代数解法:当曲线方程为f(x) ,我们在xn点做切线,求xn+1:
此时容易得出,xn点的切线方程为:f(xn)+f(xn)(xxn)要求xn+1,即相当于求f(xn)+f(xn)(xxn)=0的解,即f(xn)+f(xn)(xn+1xn)=0xn+1=xnf(xn)f(xn)
但还有一些形式的函数是不收敛的,所以要注意以下问题:

  • 函数在整个定义域内最好是二阶可导的
  • 注意起始点的选择

牛顿法的基本思想是:在现有极小点估计值的附近对f(x)做二阶泰勒展开,进而找到极小点的下一个估计值。设xk为当前的极小点估计值,则:

φ(x)=f(xk)+f(xk)(xxk)+12f(xk)(xxk)2

表示f(x)在xk附近的二阶泰勒展开式(略去了关于xxk的高阶项),由于求的是最值,由极值必要条件可知,φ(x)应满足φ(x)=0,即f(xk)+f(xk)(xxk)=0
从而得到
x=xkf(xk)f(xk)

于是,若给定初始值x0,则可以构造如下的迭代格式
xk+1=xkf(xk)f(xk),k=0,1....

可通过产生序列xk来逼近f(x)的极小点.在一定条件下,xk可以收敛到f(x)的极小点。
对于N>1的情形,二阶泰勒展开式可以做推广,此时
φ(X)=f(Xk)+f(Xk)(XXk)+12(XXk)T2f(Xk)(XXk)

其中▽f为f的梯度向量,▽2f为f的海森矩阵,其定义如下:
机器学习之XGBoost集成算法、极大似然、牛顿法
注意,▽f和▽2f中的元素均为关于X的函数,以下简记为g和H.特别是若f的混合偏导数可交换次序,则海森矩阵为对称矩阵。而f(Xk)2f(Xk)则表示将X取为xk后得到的实值向量和矩阵,以下分别将其简记为gkHk
同样的,由于是求极小点,极值必要条件 要求它为φ(X)的驻点,即φ(X)=0
通过在上式中两边作用一个梯度算子,得到:
gk+Hk(XXk)=0

此时若矩阵Hk非奇异,可解得
X=XkHk1gk

若给定初始值X0,则可同样构造出迭代格式
Xk+1=XkHk1gk

这就是牛顿迭代法,其迭代格式中的搜索方向为Hk1gk称为牛顿方向。
当目标函数是二次函数时,由于二次泰勒展开函数与原目标函数不是近似而是完全相同的二次式,海森矩阵退化为一个常数矩阵,从任一初始点出发,只需一步迭代即可达到极小点,因此牛顿法是一种具有二次收敛的算法。对于非二次函数,若函数的二次性态较强,或迭代点已进入极小点的邻域,则其收敛速度也是很快的。
牛顿法来自:https://blog.****.net/lilong117194/article/details/78111779