监督学习的Logistic回归算法

监督学习的Logistic回归算法

函数原型

hθ(X)=11+eθTX...hθ(X)y=1h_\theta(X)=\frac{1}{1+e^{-\theta^TX}}...称h_\theta(X)为y=1的概率。

决策界限的定义

z>=0y>=0.5z<0y<0.5...z=θTX,y=hθ(X)根据函数表达式可知当z>=0时y>=0.5当z<0时y<0.5...z=\theta^TX,y=h_\theta(X)
监督学习的Logistic回归算法
线z=θTX故直线z=\theta^TX为决策界限

代价函数

线性回归的代价函数为:
J(θ)=21mi=1m(hθ(xi)y(xi))2J(\theta)=2\frac{1}{m}\sum_{i=1}^{m}(h_\theta(x^i)-y(x^i))^2
我们另:
J(θ)=1mi=1mCost(hθ(xi),y(xi))J(\theta)=\frac{1}{m}\sum_{i=1}^{m}Cost(h_\theta(x^i),y(x^i))
CostCost为:
Cost(hθ(xi),y(xi))={log(hθ(x))ify=1log(1hθ(x))ify=0Cost(h_\theta(x^i),y(x^i))=\begin{cases} -log(h_\theta (x))& \text if&y=1\\-log(1-h_\theta (x))& \text if&y=0\end{cases}
为什么这样选择?

log(1hθ(x))-log(1-h_\theta (x))图像为:

监督学习的Logistic回归算法
其中hθ(X)=11+eθTX.h_\theta(X)=\frac{1}{1+e^{-\theta^TX}}.
hθ(x)h_\theta (x)无限靠近与0时,代价函数为无穷大。
hθ(x)=0y=10y=1h_\theta (x)=0表示y=1的概率为0,与条件y=1完全矛盾。故给该算法加大惩罚。

hθ(x)h_\theta (x)无限靠近与1时,代价函数为0。
hθ(x)=1y=1100%y=1h_\theta (x)=1表示y=1的概率为100\%,与条件y=1完全符合。

log(1hθ(x))-log(1-h_\theta (x))图像为:

监督学习的Logistic回归算法
证明方式与图1类似…

合并代价函数

J(θ)=1mi=1m(ylog(hθ(xi))(1y)log(1hθ(xi)))J(\theta)=\frac{1}{m}\sum_{i=1}^m(-ylog(h_{\theta}(x^i))-(1-y)log(1-h_{\theta}(x^i)))

使用梯度下降法迭代

公式与线性回归公式相同。
证明参考:https://blog.csdn.net/qq_29663489/article/details/87276708

多分类问题

监督学习的Logistic回归算法
思想:二分,归类于y=1概率的的一类。
如图,三个函数同时处理,得到hθ(X)h_\theta(X),故点归类于hθ(X)h_\theta(X)大的一类。