多元梯度下降法演练(1)--特征缩放(特征归一化),Feature Scaling,mean normalization machine learning
多元梯度下降法演练(1)--特征缩放(特征归一化)
1.目的
将特征值归一化的目的是让代价函数收敛的速度变快。
2.怎么做
2.1 Feature Scaling(特征归一化)
2.1.1 公式
公式为:我们希望将的范围控制在
2.1.2 举例:
假设的取值范围是(0,2000)的取值范围为{0,1,2,3,4,5},因为取值范围的巨大差距,导致等值线为
可以看见其梯度下降是曲曲折折,路径走的很长。
如果我们将其归一化,即
那么其等值线为
收敛速度很快。
2.1.3 注意
并不需要完全严格的将其幅度控制在之间,吴恩达教授给我们给出的是大的范围是
小的范围是
2.2 mean normalization(均值归一化)
2.2.1公式
公式为:其中,为的均值。
范围是