机器学习day2

模型描述

这个很简单了,大家一看就可以知道了

机器学习day2这个是对应的我上一篇博客里的房价的问题的一个模型,左边一列为规格大小,我们称为X,右边一列是对应的房价,我们称为Y。如果大家学过函数,我建议大家就把这个X当做自变量或者是参数Y当做因变量或者是返回值。ok,那么还有一个m其实就是数据的组数,像上图我们就给出了4组数据,那么这里的m就是4。

代价函数,梯度下降,线性回归

  • 代价函数

废话不说,上图

机器学习day2机器学习day2
这张图是博主自己对应上一张图写的一个注释。
机器学习day2这张图左边就是在不同取值的θ–1下对应的h函数的图像,这张图为了更简便,我们把θ-0取值都为0,右边就是对应的J值,我们可以直观的看到,最小的J值是在θ-11的时候得到了,在左边就正好将三个×连成一条直线,对应的函数是h=x。
机器学习day2这张图就是讲θ-0θ-1都进行取值的h函数图像和J函数图像。右图中,圆圈中心处就是咱们J值取最小的点。

  • 梯度下降
  • 首先我们从图像上来形象了解一下梯度下降,我们把对应的代价函数化成一张三维的图,那么显然我们要求的J的最小值就是这座山脉的山谷,ok,那我们假设一个点,就是我们目前所在处,我们一般假设为个自变量都是0的点。那么接下来,我们要做的就是一步步找到路径下山。下面这两张图就是我们在不同的起始位置的下山路径,我们发现不同的起始点走到的谷底可能不一样,是因为我们在山上时只能看到局部的最低山谷。

机器学习day2
机器学习day2
下面这张图就是对于梯度下降的定义。博主给个简单的解释,这个θ-j就是我们上图的坐标点,就是我们所处山脉的位置,这个梯度下降的函数就是让我们不断得到新的坐标点,知道这个坐标点所对应的j为最小值。
机器学习day2

  • 线性回归

简单的博主来说,我们利用梯度下降的方法不断找到一个坐标点,直到我们找到最小的J值得过程,就是我们完成一个线性回归问题的过程,这种算法,我们称为Batch梯度下降算法。那么恭喜各位,今天学习了第一种算法了!