吴恩达机器学习(四)逻辑回归(二分类与多分类)

目录

0. 前言

1. 假设函数(Hypothesis)

2. 决策边界(Decision Boundary)

3. 代价函数(Cost Funciton)

4. 梯度下降(Gradient Descent)

5. 逻辑回归实现多分类

6. 其他求解参数的方法


学习完吴恩达老师机器学习课程的逻辑回归,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。

如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~

0. 前言

逻辑回归(Logistic Regression),是一种用于二分类(binary classification)的算法。我们可假设:

  • 吴恩达机器学习(四)逻辑回归(二分类与多分类) --- 代表二分类中的正类
  • 吴恩达机器学习(四)逻辑回归(二分类与多分类) --- 代表二分类中的反类

1. 假设函数(Hypothesis)

首先给出一个函数,Sigmoid 函数,吴恩达机器学习(四)逻辑回归(二分类与多分类),它的函数图像如下所示:

吴恩达机器学习(四)逻辑回归(二分类与多分类)

我们知道,在线性回归算法中,假设函数被定义为 吴恩达机器学习(四)逻辑回归(二分类与多分类),此时假设函数的取值范围可以为 吴恩达机器学习(四)逻辑回归(二分类与多分类)。在二分类中,输出 吴恩达机器学习(四)逻辑回归(二分类与多分类) 的取值只能为 吴恩达机器学习(四)逻辑回归(二分类与多分类) 或者 吴恩达机器学习(四)逻辑回归(二分类与多分类),在 吴恩达机器学习(四)逻辑回归(二分类与多分类) 之外包裹一层 Sigmoid 函数,使之取值范围属于 吴恩达机器学习(四)逻辑回归(二分类与多分类),所以给出如下定义:

吴恩达机器学习(四)逻辑回归(二分类与多分类)

例如 吴恩达机器学习(四)逻辑回归(二分类与多分类),表示有 吴恩达机器学习(四)逻辑回归(二分类与多分类) 的概率 吴恩达机器学习(四)逻辑回归(二分类与多分类),表示输入为 吴恩达机器学习(四)逻辑回归(二分类与多分类) 时,吴恩达机器学习(四)逻辑回归(二分类与多分类) 的概率。

2. 决策边界(Decision Boundary)

根据以上假设函数表示概率,我们可以推得:

  • 吴恩达机器学习(四)逻辑回归(二分类与多分类)
  • 吴恩达机器学习(四)逻辑回归(二分类与多分类)

令 吴恩达机器学习(四)逻辑回归(二分类与多分类),则 吴恩达机器学习(四)逻辑回归(二分类与多分类) 为决策边界。如果用图像表示,如下例子:

吴恩达机器学习(四)逻辑回归(二分类与多分类)

3. 代价函数(Cost Funciton)

在线性回归中,我们给出定义 吴恩达机器学习(四)逻辑回归(二分类与多分类),由于它是一个凸函数,所以可用梯度下降直接求解,局部最小值即全局最小值。

但在逻辑回归中,吴恩达机器学习(四)逻辑回归(二分类与多分类) 是一个复杂的非线性函数,属于非凸函数,直接使用梯度下降会陷入局部最小值中

根据极大似然估计(Maximum likelihood Estimate),可对代价函数作如下修改:

吴恩达机器学习(四)逻辑回归(二分类与多分类)

吴恩达机器学习(四)逻辑回归(二分类与多分类)

当 吴恩达机器学习(四)逻辑回归(二分类与多分类) 时,我们对 吴恩达机器学习(四)逻辑回归(二分类与多分类) 作图如下。易知当 吴恩达机器学习(四)逻辑回归(二分类与多分类)(可判定 吴恩达机器学习(四)逻辑回归(二分类与多分类))时,代价是接近无穷大的(因为此时判错),反之亦然。

吴恩达机器学习(四)逻辑回归(二分类与多分类)

我们亦可将代价函数写成如下形式:

吴恩达机器学习(四)逻辑回归(二分类与多分类)

此时的代价函数是凸函数,可用梯度下降法求全局最优解。

4. 梯度下降(Gradient Descent)

与线性回归一致,梯度下降仍然采用如下公式:

吴恩达机器学习(四)逻辑回归(二分类与多分类)

5. 逻辑回归实现多分类

多分类(multi-classification)是指分类的结果不只两类,而是有多个类别。

逻辑回归本质上是一种二分类的算法,但是可以通过搭建多个二分类器的思想,实现多分类。

  • 针对类别 吴恩达机器学习(四)逻辑回归(二分类与多分类),设 吴恩达机器学习(四)逻辑回归(二分类与多分类) 为正类,非吴恩达机器学习(四)逻辑回归(二分类与多分类) 为反类,搭建二分类器 吴恩达机器学习(四)逻辑回归(二分类与多分类)
  • 针对类别 吴恩达机器学习(四)逻辑回归(二分类与多分类),设 吴恩达机器学习(四)逻辑回归(二分类与多分类) 为正类,非吴恩达机器学习(四)逻辑回归(二分类与多分类) 为反类,搭建二分类器 吴恩达机器学习(四)逻辑回归(二分类与多分类)
  • 针对类别 吴恩达机器学习(四)逻辑回归(二分类与多分类),设 吴恩达机器学习(四)逻辑回归(二分类与多分类) 为正类,非吴恩达机器学习(四)逻辑回归(二分类与多分类) 为反类,搭建二分类器 吴恩达机器学习(四)逻辑回归(二分类与多分类)
  • ........

由于 吴恩达机器学习(四)逻辑回归(二分类与多分类),即求 吴恩达机器学习(四)逻辑回归(二分类与多分类) 时的 吴恩达机器学习(四)逻辑回归(二分类与多分类) 。

6. 其他求解参数的方法

除了梯度下降外,还有以下求解方法:

  • 共轭梯度法(Conjugate Gradient)
  • BFGS
  • L-BFGS

在这些方法中,相比梯度下降,有以下优点和缺点:

  • 不需要主观的选择学习率 吴恩达机器学习(四)逻辑回归(二分类与多分类),算法中的内循环会自动调节
  • 速度更快
  • 算法更复杂

如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~