机器学习吴恩达第二章上 单变量线性回归

2.1 模型表示

第一个算法是线性回归算法。

在监督学习中,数据集被称为训练集。

m代表训练样本的数目。

x代表特征/输入变量

y代表目标/输出变量

(x,y)代表训练集中的实例

xiyi)代表第i个观察实例

h代表学习算法的解决方案或函数,也称为假设(hypothesis

机器学习吴恩达第二章上 单变量线性回归

如图所示,训练集是房屋的价格,我们输入了房屋的面积x,h表示一个函数,映射出房屋的价格y。而我们要考虑的问题是如何表达h。

一种可能的表达形式是:hθ(x)=θ0+θ1(x因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。

2.2 代价函数

机器学习吴恩达第二章上 单变量线性回归

假设m=47,而我们的假设函数为hθ(x)=θ0+θ1(x),我们要做的是为我们的模型选择适当的参数。这决定了我们的训练集的准确程度。

模型所预测的值和实际值之间的差距叫做建模误差。

我们的目标是选择出可以使建模误差的平方和能最小的模型参数。也就是使代价函数最小。

代价函数:机器学习吴恩达第二章上 单变量线性回归



排版不好换下一页。