《机器学习中的数学》——逻辑(斯特)回归

摘要

逻辑斯特回归同样属于监督学习,说到回归一般指的是对连续值的预测,这里的逻辑斯特回归用来解决分类问题,此篇博客主要以二分类为例子分析。
例子如下:
横坐标表示肿瘤大小,纵坐标表示是否为恶性肿瘤。
《机器学习中的数学》——逻辑(斯特)回归
可以看到线性回归得到的一条直线中加上一个阈值(大于某一值取正样本,反之取负样本)可以对这8个样本点有一个比较明确的分类,如下如图:《机器学习中的数学》——逻辑(斯特)回归
但是这个方法对噪声点很敏感,如果我们增加三个样本点,得到一个新的拟合直线:
《机器学习中的数学》——逻辑(斯特)回归
再用刚才的阈值来划分时发现,新添加的样本被判断错了,鲁棒性不够,由此可见在线性回归中很难找一个绝对的值来严格划分样本结果,此时使用逻辑斯特回归来解决。

问题分析

逻辑斯特回归利用一个相对的值(线性回归不能绝对的确定结果)——概率,来对每一个样本点预测,它的输出被映射到[0,1][0,1]上,是一个连续值。此映射归功于sigmoid函数:
y=11+ex y=\frac{1}{1+e^{-x}}
《机器学习中的数学》——逻辑(斯特)回归
逻辑斯特的做法是:将线性回归的结果映射到sigmoid函数可以得到每一个样本点的概率值。但是需要一组好的参数来将样本分开,这里的参数就是判定边界的参数。
接下来讨论一个概念——判定边界,就是在样本集中分类的边界。
《机器学习中的数学》——逻辑(斯特)回归如图线性回归中,判定边界为一条直线,我们假设为y=3+x1+x2y=-3+x_1+x_2,当y=0y=0时,直线将样本划分为两类:
《机器学习中的数学》——逻辑(斯特)回归
其中:hθ(x)=g(θ0+θ1x1+θ2x2)h_\theta(x)=g(\theta_0+\theta_1x_1+\theta_2x_2)
表示将线性回归的结果映射到sigmoid函数,hθ(x)h_\theta(x)输出一个[0,1][0,1]的概率值,y=0y=0为此时的判定边界,在直线上方是正样本,下方为负样本,假设的参数θ\theta是要学习的。
《机器学习中的数学》——逻辑(斯特)回归
同理当我们造出高次项的特征时,非线性的判定边界也可以是曲线。当y=0y=0时为圆的边,y>0y>0为圆的外面,y<0y<0为圆的里面,这样可以很好的分类样本集。
逻辑斯特回归的损失函数
线性回归中利用方差的方法不适合,因为逻辑回归的是分类问题,所求得结果是概率,在[01][0,1]之间 导致hθ(x)h_\theta(x)是一个不光滑的曲线(非凸函数,有局部最小点,梯度下降法不能用),此时使用互熵损失
Cost(hθ(x),y)={log(hθ(x))if:y=1log(1hθ(x))if:y=0 Cost(h_\theta(x),y)=\left\{ \begin{array}{rcl} -log(h_\theta(x)) &if: &y=1\\ -log(1-h_\theta(x)) &if: &y=0\\ \end{array} \right.
y=1y=1结果是正样本时,xx越接近1,CostCost函数越小,损失越小:《机器学习中的数学》——逻辑(斯特)回归
y=0y=0结果是正样本时,xx越接近0,CostCost函数越小,损失越小:
《机器学习中的数学》——逻辑(斯特)回归
可得出逻辑斯特回归的损失函数
J(θ)=1mi=1mCost(hθ(x(i)),y(i))=1mi=1m[(yiloghθ(x(i))+(1yi)log(1hθ(x(i)))] J(\theta)=\frac{1}{m}\sum_{i=1}^mCost(h_\theta(x^{(i)}),y^{(i)})\\ =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))]
别忘了L2正则化
J(θ)=1mi=1m[(yiloghθ(x(i))+(1yi)log(1hθ(x(i)))]+λ2mi=1mθi2 J(\theta) =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))]+\frac{\lambda}{2m}\sum_{i=1}^m\theta_i^2
接下来是梯度下降(Jθ(x)J_\theta(x)是一个凸函数,只存在一个最优解)法寻找最优解:
θi=θiαθiJ(θ) \theta_i=\theta_i-\alpha\frac{\partial}{\partial \theta_i}J(\theta)
多分类问题是可以构建多个分类器,例如:对A和{B,C}分类构建分类器,然后再对B,C构建分类器。

总结与链接

LR(逻辑斯特回归)使用注意:
1.样本量太大时可以:

  • 离散化后用one-hot编码处理;
  • 连续值注意要用scaling(标准化)
    2.样本平衡
  • LR对样本敏感,注意噪声样本
  • 做上采样(样本多,可以对不均衡样本采样,正多采正)和下采样(图像中对样本丰富,镜像,反转…)
  • 改lose function(对不均衡样本权重调节)