逻辑回归算法原理及用于解决多分类问题
逻辑回归算法又叫做对数几率回归,作为一种分类算法,在统计学中属于广义的线性模型。实际上逻辑回归是通过对数几率函数将线性函数的结果进行mapping,这样一来目标函数的取值空间就发生了如下的变化:
(−∞,+∞)映射到(0,1)
这样一来,逻辑回归就可以用来处理分类问题。
一、逻辑回归的基本原理
在训练时,线性回归模型在整个实数域上对于异常数据点的敏感性一致,所以用于分类效果较差。对于二分类任务,逻辑回归的输出标记如下:
y∈{0,1}
而线性回归的预测值是实值,如下:
y=θTx
因此我们就需要一个特定的函数将实值映射为0/1。
直接的想法就是使用单位阶跃函数,这样一来:预测值大于零就为正例;预测值小于零就为负例;如若预测值为临界值则可以任意判别。但是这样是有问题的:单位阶跃函数不连续而且不光滑,或者说不可导,故而无法进行求解。
那么我们就看中了对数几率函数(S函数),或者说对数概率函数。两者参见下图:
图一为单位阶跃函数的数学表达式,图二为单位阶跃函数和对数几率函数的图像。
线性回归模型:
y=WTx+b
对数线性回归:
lny=WTx+b
它实际上实在试图达到如下目标:
让eWTx+b逼近y。这里依旧是线性回归,但实际上已经在求取输入空间到输出空间的非线性函数映射。
这里的取对数的作用是:将线性回归魔心过的预测值与真实标记联系起来。
推广:考虑单调可谓函数g(.)令:
y=g−1(WTx+b)
对数几率函数(Sigmoid函数)表达式:
y=1+e−z1
带入到上述推广之中,得到:
y=1+e−(WTx+b)1
两边取对数求解得到:
ln1−yy=WTx+b
其中,P(Y=1∣X)=1+e−(WTx+b)1
P(Y=0∣X)=1+e(WTx+b)1
在这里,x∈Rn是输入,Y∈{0,1}是输出,WT是参数,b为截距。逻辑回归在分类的时候,根据给定
的输入,分别计算P(Y=1∣X)和P(Y=0∣X),根据概率大小,将实例进行分类到概率值较大的一类。
二、使用梯度下降法对逻辑回归进行求解
记hw=1+e−(WTx+b)1,构造最大似然概率如下:
ℓ(w,b)=i=1∏mp(yi∣xi;w,b)=i=1∏m(hw(x))y(1−hw(x))1−y
上式为累乘形式,取对数以转化为累加形式便于求导操作,同时转化为求最小值问题:因此有下式:
ℓ(w,b)=−m1i=1∑m[yilnhw(xi)+(1−yi)ln(1−hw(xi))]
使用梯度下降法求解:
wj+1=wj−α∂(w)∂ℓ(w,b)=wj−αm1i=1∑mxi[hw(xi)−yi]
简写为:∂w∂ℓ=m1xi(hw(xi)−yi)和∂b∂ℓ=m1i=1∑m(hw(xi)−yi)
三、逻辑回归解决多分类为题
逻辑回归分类器是线性分类器,可以方便的解决二分类问题,但也可以用于解决多分类问题。方案如下:
方案1:当存在样本可能属于多个标签的情况时,可以训练出k个二分类的逻辑回归分类器。第i个分类器用以区分每个样本是否可以归类为第i类,训练该分类器的时候,需要把标签重新整理为第i类标签和非第i类标签两类。通过这样的方法,就解决了每个样本可能拥有多个标签的情况。
方案2:若每个样本只对应于一个标签,我们可以假设每个样本属于不同标签的概率服从几何分布,使用多项式逻辑回归(Softmax Regression)来进行分类。具体如下:
hθ(x)=⎣⎢⎡P(y=1∣x;θ)⋮P(y=k∣x;θ)⎦⎥⎤=∑j=1kejTx1⎣⎢⎡e1Tx⋮ekTx⎦⎥⎤
其中,θ1,θ2,…,θk∈Rn为模型的参数,而∑j=1keθjTx1可以看作是对概率的归一化。为了方便起见:
将θ1,θ2,…,θk这k个列向量按顺序排列成n×k维的矩阵,写成θ表示整个参数集。一般来说,多项式逻辑
回归具有参数冗余的特点,即将θ1,θ2,…,θk同时加减一个向量后预测结果不变。特别的,当类别数为2时,
hθ(x)=eθ1Tx+eθ2Tx1[eθ1Txeθ1Tx]
利用参数冗余的特点,将所有参数减去θ1,上式变成了如下形式,
hθ(x)=e0∙x+e(θ2T−θ1T)x1[e0∙xe(θ2T−θ1T)x]=[1+eθTx11−1+eθTx1]
其中,θ=θ2−θ1。
发现整理之后的式子与逻辑回归一致,因此多项式逻辑回归实际上时二分类逻辑回归在多标签分类下的一种拓展。