吴恩达深度学习(1)logistic

先用自己的话定义一下Logistic是什么东东:

logistic回归是一种二分类器。在logistic回归中,有这样一道核心式子:吴恩达深度学习(1)logistic。我把这里的吴恩达深度学习(1)logistic叫做权重,把这里的吴恩达深度学习(1)logistic叫做偏置(或阈值)。这条式子的作用就是:对于输入的特征吴恩达深度学习(1)logistic,如果吴恩达深度学习(1)logistic则将对应的吴恩达深度学习(1)logistic归为一类,如果吴恩达深度学习(1)logistic则将x归为另一类,其中吴恩达深度学习(1)logistic,函数图像如下图:

吴恩达深度学习(1)logistic

既然logistic是一种二分类器,那么这里的权重w和偏置b都是由训练样本训练得到的。

训练集一般长这个样子:吴恩达深度学习(1)logistic,其中吴恩达深度学习(1)logistic是样本集每个样本的真值,就是这个样本它属于哪一类的意思。记吴恩达深度学习(1)logistic的话,这个吴恩达深度学习(1)logistic的意义就是由logistic预测出来的,特征x的分类了。那么我们当然希望,logistic预测出来的值与真值相等啦,也就是吴恩达深度学习(1)logistic,但是很多时候我们只能让大部分的吴恩达深度学习(1)logistic,总会有一小部分的样本真值和预测值是不相等的。因此,我们引入一个代价函数去刻画样本整体的预测情况。这个代价函数的定义是:吴恩达深度学习(1)logistic。我们观察这个代价函数,假设真值为1、预测值>0.5时,代价函数的吴恩达深度学习(1)logistic吴恩达深度学习(1)logistic项是等于0的,而吴恩达深度学习(1)logistic项则是一个绝对值相当小的数(吴恩达深度学习(1)logistic,由log函数图像知,该值相对于吴恩达深度学习(1)logistic的情况要小很多);而当真值为1、预测值<0.5时,吴恩达深度学习(1)logistic就是一个比上个情况大数倍甚至数十倍的值了,吴恩达深度学习(1)logistic骈俪0.5越多,这个绝对值越大;另外两种情况也同样道理。所以、这个代价函数刻画的,就是样本整体的预测值与真值之间的差异程度,当代价函数值越小时,logistic的预测效果越好。

于是,训练权重w和偏置b的目标就是:使代价函数吴恩达深度学习(1)logistic的值最小,这个问题就成了一个最优化问题(求代价函数的最小值)。

那么,这个最优化问题怎么求解呢?这里就是用梯度下降法了。这部分可以参考别人的博客:https://blog.****.net/c654528593/article/details/78571756,当然还是吴恩达推得明白一点,我也粗略地推一推吧:

吴恩达深度学习(1)logistic

推完之后,就可以用梯度下降的方法,训练模型了。这里注意的是,吴恩达的视频里用到了向量化的方法进行训练,这篇博客也讲得很清楚,这里就不再写了:https://blog.****.net/iSunwish/article/details/88205921