机器学习吴恩达第二章上 单变量线性回归
2.1 模型表示
第一个算法是线性回归算法。
在监督学习中,数据集被称为训练集。
m代表训练样本的数目。
x代表特征/输入变量
y代表目标/输出变量
(x,y)代表训练集中的实例
(x(i),y(i))代表第i个观察实例
h代表学习算法的解决方案或函数,也称为假设(hypothesis)
如图所示,训练集是房屋的价格,我们输入了房屋的面积x,h表示一个函数,映射出房屋的价格y。而我们要考虑的问题是如何表达h。
一种可能的表达形式是:hθ(x)=θ0+θ1(x) 因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。
2.2 代价函数
假设m=47,而我们的假设函数为hθ(x)=θ0+θ1(x),我们要做的是为我们的模型选择适当的参数。这决定了我们的训练集的准确程度。
模型所预测的值和实际值之间的差距叫做建模误差。
我们的目标是选择出可以使建模误差的平方和能最小的模型参数。也就是使代价函数最小。
代价函数:
排版不好换下一页。