1.2.2 【Deep Learning翻译系列】Logistic Regression 对数几率回归

1.2.2 【Deep Learning翻译系列】Logistic Regression 对数几率回归

在这个视频中,我们将回顾逻辑回归。当监督学习问题中输出标签Y全部为0或1时,这是一种学习算法。

所以对于二元分类问题。给定一个输入特征向量x(可能对应于您想要识别为猫图片或不是猫图片的图片),您需要一种可输出预测的算法,我们将其称为y^,它是您对y的估计。
更正式地说y^=p(y=1|x),也就是是给定输入特征x的条件下,y等于1的概率。
换句话说,如果X是一张图片,你希望y^告诉你,这是图片有多大概率是猫?

因此,正如我们在前面的视频中所说的,xRnx是一个nx维矢量。对数几率回归的参数WRnx也是nx维矢量,bR是一个实数。所以给定xRnx,WRnx,bR,我们如何得到y^

那么,有一件事你可以试试,但是不会有用,那就是让y^=WTx+b,是输入xRnx的线性函数。
事实上,这就是线性回归。
但是这对二分类问题并不是一个很好的算法,因为你希望y^y等于1的几率,所以y^应该在0到1之间。
这用线性回归很难做,因为WTx+b可能比1更大,或者它甚至可能是负的,这对概率是没有意义的。

因此,在逻辑回归中,我们的输出将是y^等于WTx+b的sigmoid函数,即y^=σ(WTx+b)σ表示sigmoid函数。

如果在水平轴上我绘制z=WTx+b,那么z的sigmoid函数看起来像这样:
1.2.2 【Deep Learning翻译系列】Logistic Regression 对数几率回归
它从0到1平稳地变化。这是0,然后函数又穿过了纵轴上的0.5,这就是Z的sigmoid函数。

这里是sigmoid函数的公式σ(z)=1ez+1。如果z非常大,那么ez趋于零。σ(z)接近1。
相反,如果z非常小,或者它是一个非常大的负数,σ(z)接近于零。

所以当你实现对数几率回归时,你的工作是试着学习参数Wb,这样y^可以很好的估计y等于1的几率。

在继续之前,关于符号我们想要做一些注解。

当我们编程时,我们通常将参数W和参数b分开写。在其他地方,您可能会看到一种处理方式不同的符号。
在一些惯例中,您定义了一个名为x0=1的额外特征,此时xRnx+1y^=σ(θTx)θ1,...,θn=Wθ0=b

事实证明,当你实现你的神经网络时,将B和W保持为独立的参数会更容易。所以,在这个班级中,我们不会使用我刚刚用红色写的任何符号约定。
如果您以前在其他课程中没有看到过这个符号,请不要担心。对于那些已经看到这种表示法的人来说,我只是想明确提到我们在本课程中没有使用这种表示法。但如果你以前没有见过这个,这不重要,你不需要担心。

所以你现在已经看到了逻辑回归模型的样子。接下来要训练参数Wb,您需要定义一个cost function。
我们在下一节课中做这个。
1.2.2 【Deep Learning翻译系列】Logistic Regression 对数几率回归