【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

四、多变量线性回归(Linear Regression with Multiple Variables)

4.1 多维特征

4.2 多变量梯度下降

4.3 梯度下降法实践1-特征缩放

4.4 梯度下降法实践2-学习率

4.5 特征和多项式回归

4.6 正规方程

 

4.1 多维特征

当特征数量超过1个时,特征使用n维列向量X,模型参数使用n维列向量【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)表示:

                                                       【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables) ,          【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables) 

其中,【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables) = 1;

此时,Hypothesis function可写为:

                                                                   【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

4.2 多变量梯度下降

算法与单变量梯度下降一致。

                                                  【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

4.3 梯度下降法实践1-特征缩放        

为了使得梯度下降算法能够更快更好的收敛,将所有的特征缩放;

一般特征值在[-3,3]或[-1/3,1/3]之间都视作OK。

【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

 

4.4 梯度下降法实践2-学习率        

学习率【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)的确定步骤:

try: …,0.001,0.003,0.01,0.03,0.1,0.3,1,…

选定某个值,绘制如下收敛曲线,取收敛速度最快的【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

                                          【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

4.5 特征和多项式回归

对于某些问题,线性回归可能不适用,应当建立多项式,进行多项式回归,如三次多项式:

                                                   【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

可令【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables),即可将上式转化为多变量线性回归。注意:需要进行特征缩放

4.6 正规方程  Normal Equation

Normal Equation 直接通过导数计算出【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)取最小值时的向量【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

公式:【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

例:

【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

梯度下降 正规方程
需要选择学习率 不需要选择学习率
需要多次迭代 一次运算得出

当特征数量n很大时也能较好适用

需要计算矩阵求逆,因为矩阵逆的计算时间复杂度为O(n^3 ),n较大时求逆的时间代价太大,通常来说当n小于10000 时是可以接受的
适用于各种类型的模型 只适用于线性模型,不适合逻辑回归模型等其他模型