吴恩达 深度学习 logistic算法模型

logisitic回归 是一个学习算法 用在监督学习的问题中 , 当输出的y标签是0或是1的时候 是一个二分类的问题
吴恩达 深度学习 logistic算法模型这是一个logistic模型 w b 是这个模型的参数 这是一个线性回归的问题 在这里我们想输出的Y的概率应该是在0和1之间的 而不应是是大于1或是为一个负数 所以我们使用了一个sigmoid函数 如图中所示 这样使得输出的y介于0和1 之间
吴恩达 深度学习 logistic算法模型这是关于logistic函数的一个具体过程 在这里上面加了间间隔括号的y是我们通过参数y和b预测的一个值 而没加的y则是一个真实值 那么当真实值和预测值的平方的1/2达到一个最小的值时 也就是我们得到了最优的参数w和b 也就是训练好了 那么现在就是求关于那个L函数(L(Y* Y) = 1/2 (Y* - Y)*2的一个最优解问题 也就是如何取w b使得之函数最小 但是我们发现 没法进行求这个函数的最优解 因为是一个非凸函数 也就是只有局部最优解 因此我们转化为另一个关于L的一个函数(损失函数 是一个衡量单一训练样例的结果):(L(Y~ Y) = -(y logy~ + (1-y)log(1-y~)) 这是一个凸函数 也就是可以求解关于最优解的问题那么问题为什么这个函数能代替上面的那个函数呢 假设 y = 1 那么这个说那函数为:L = -logy` 为了使这个函数最小 又因为y~在0和1之间 那么y~最好的取值则为1 则与y一样 所以达到了一个预测值和真实值一样 那么当y= 0时候 这个函数变为 -log(1-y~) 则为了使这个函数达到一个最小值得效果 y~的取值应该为0 所以又和真实值一样 所以在w和b这两个参数的不断调试中 来使得这个函数达到一个最小值 那么对于代价函数 如图最后一个式子所示 使得代价函数(用于衡量参数w和b的效果)达到最小的对应的参数w和b 就是我们要达到的效果 这就是logistic算法模型