分类问题——Logistic分类器/softmax分类器

Sigmoid

先来了解一个函数——sigmoid:
分类问题——Logistic分类器/softmax分类器
它所对应的图像为
分类问题——Logistic分类器/softmax分类器
sigmoid函数中,z作为我们的自变量,它的范围可以在(-∞,+∞),但是当z映射到sigmoid当中的,它的范围则为(0,1),这个范围是不是容易让你联想到概率?当我们的概率大于0.5,我们记作正类,当概率小于0.5,记作负类

回归原理

有了接下来我们需要确定我们分类的边界,有时候我们的分类边界是线性的,有时候分类边界非线性的,这里搬两张吴恩达教授的图来说明:
分类问题——Logistic分类器/softmax分类器
分类问题——Logistic分类器/softmax分类器
我们在确定好分类的边界后,将其边界的数学函数记作Z,就是我们sigmoid的那个Z,
假定我们的边界是线性的:
分类问题——Logistic分类器/softmax分类器
那么将其代入sigmoid函数:
分类问题——Logistic分类器/softmax分类器
对于二分类问题的话,我们得到的是(0,1)两类结果
分类问题——Logistic分类器/softmax分类器
整合后:
分类问题——Logistic分类器/softmax分类器
我们利用似然函数
分类问题——Logistic分类器/softmax分类器
为了计算的方便,我们将其取对数,得到新的函数——对数似然函数:
分类问题——Logistic分类器/softmax分类器
为了使得我们的模型尽可能的准确,我们需要得到它的最大值,此时引入梯度上升法,引入新的函数:
分类问题——Logistic分类器/softmax分类器
此时我么的任务变成了常见的梯度下降任务:
老规矩,先求导:
分类问题——Logistic分类器/softmax分类器
参数迭代更新:
分类问题——Logistic分类器/softmax分类器
最后得到一个较优的参数θ,我们的模型建立的过程也差不多快结束了。

Softmax

可以借鉴这里的推导,个人感觉还不错
简单来说就是通过Softmax函数使得各个不同的类型所占的概率相加为1,最后我们将测试的数据代入公式,计算出为每个类别的概率值,最后根据概率值判断是属于哪一类:
分类问题——Logistic分类器/softmax分类器
而我们的目的就是求得较优的参数θ是的模型的性能尽可能的好