【吴恩达机器学习笔记】week1:单变量线性回归

第一周

一、 引言(Introduction)

1. 机器学习是什么?

术语的定义:

1.机器学习:
一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。我认为经验E 就是程序上万次的自我练习的经验而任务T 就是下棋。性能度量值P呢,就是它在与一些新的对手比赛时,赢得比赛的概率。

2.监督学习:
我们给学习算法一个数据集。这个数据集由“正确答案”组成。在房价的例子中,我们给了一系列房子的数据,我们给定数据集中每个样本的正确价格,即它们实际的售价然后运用学习算法,算出更多的正确答案。比如你朋友那个新房子的价格。用术语来讲,这叫做回归问题。我们试着推测出一个连续值的结果,即房子的价格。

监督学习例子

分类

你有许多客户,这时你想写一个软件来检验每一个用户的账户。对于每一个账户,你要判断它们是否曾经被盗过?

垃圾邮件问题。如果你有标记好的数据,区别好是垃圾还是非垃圾邮件,我们把这个当作监督学习问题。

回归

你有一大批同样的货物,想象一下,你有上千件一模一样的货物等待出售,这时你想预测接下来的三个月能卖多少件?

3.无监督学习

直接上例子
聚类:

音频算法区分出两个音频资源

新闻事件分类的例子,就是那个谷歌新闻的例子,我们在本视频中有见到了,我们看到,可以用一个聚类算法来聚类这些文章到一起,所以是无监督学习。

二、单变量线性回归(Linear Regression with One Variable)

2.1 模型表示

以之前的房屋交易问题为例,假使我们回归问题的训练集(Training Set)如下表所示:
【吴恩达机器学习笔记】week1:单变量线性回归
【吴恩达机器学习笔记】week1:单变量线性回归

H代表学习算法的解决方案或函数也称为假设(hypothesis):

【吴恩达机器学习笔记】week1:单变量线性回归
这就是一个监督学习算法的工作方式,我们可以看到这里有我们的训练集里房屋价格 我们把它喂给我们的学习算法,学习算法的工作了,然后输出一个函数,通常表示为小写 h表示。 h代表hypothesis(假设),h表示一个函数,输入是房屋尺寸大小,就像你朋友想出售的房屋,因此h根据输入的x值来得出y值,y值对应房子的价格.因此,h是一个从 x到y的函数映射。
【吴恩达机器学习笔记】week1:单变量线性回归

2.2 代价函数

【吴恩达机器学习笔记】week1:单变量线性回归

2.3 梯度下降

在梯度下降算法中,这是正确实现同时更新的方法。

【吴恩达机器学习笔记】week1:单变量线性回归

2.4 梯度下降的线性回归

在以前的视频中我们谈到关于梯度下降算法,梯度下降是很常用的算法,它不仅被用在线性回归上和线性回归模型、平方误差代价函数。在这段视频中,我们要将梯度下降和代价函数结合。我们将用到此算法,并将其应用于具体的拟合直线的线性回归算法里。

梯度下降算法和线性回归算法比较如图:
【吴恩达机器学习笔记】week1:单变量线性回归
【吴恩达机器学习笔记】week1:单变量线性回归

我们刚刚使用的算法,有时也称为批量梯度下降。实际上,在机器学习中,通常不太会给算法起名字,但这个名字”批量梯度下降”,指的是在梯度下降的每一步中,我们都用到了所有的训练样本,在梯度下降中,在计算微分求导项时,我们需要进行求和运算,所以,在每一个单独的梯度下降中,我们最终都要计算这样一个东西,这个项需要对所有m个训练样本求和。

2.5 JJ的其他解法

有一种计算代价函数J最小值的数值解法,不需要梯度下降这种迭代算法。在后面的课程中,我们也会谈到这个方法,它可以在不需要多步梯度下降的情况下,也能解出代价函数J的最小值,这是另一种称为**正规方程(normal equations)**的方法。实际上在数据量较大的情况下,梯度下降法比正规方程要更适用一些。