linear regression线性回归
机器学习大致流程
H是已知 X到目的 Y的映射
假设
Hθ(xi)=θ0+θ1xi
选择θ0和θ1使得代价函数也即平方误差代价函数最小
代价函数
minmize∑i=1m(hθ(xi)−yi)/2m
gradient descent梯度下降算法
梯度下降是一个用来求函数最小值的算法。

其中α被称作learning rate(学习速率),之后视频中讲到α不可以过大,否则可能无法收敛或者发散,而梯度下降是通过不断重复计算直到θj收敛。

要注意的是θ0和θ1需要同时更新
梯度下降算法和线性回归对比:

通过计算可以得到结果:

由于使用到了所有变(求和),所以也成为批量梯度下降函数
Day 2!加油!