标准化,归一化

文章来源https://www.zhongxiaoping.cn/2019/01/15/%E6%A0%87%E5%87%86%E5%8C%96%E4%B8%8E%E6%AD%A3%E5%88%99%E5%8C%96/

本文主要讲述的是标准化与归一化的区别,相同点和联系,重点讲述各自的使用场景,归一化主要是应用于没有距离计算的地方上,标准化则是使用在不关乎权重的地方上,因为各自丢失了距离信息和权重信息,最后还讲述了下归一化的使用场景,主要是针对数据分布差异比较大–标准化和奇异数据(单个数据对结果有影响的话)–归一化的情况下.使用

一.不同点

归一化 标准化
概念 将数值规约到(0,1)或者是(-1,1)区间 将对应数据的分布规约在均值为0,标准差为1的分布上(近似高斯分布)
侧重点 数值的归一,丢失数据的分布信息,对数据之间的距离没有得到较好的保留,但保留了权值 数据分布的归一,较好地保留了数据之间的分布,但是数据对于的权重没有得到保留,因为规约化的分母是标准差,而标准差的大小也间接代表着权重的大小,(具体查看下面的说明.标准差与权重的关系),这就导致规约之后的分布,各个数据/样本的权重是平等的,但是保留样本之间的距离.
形式 标准化,归一化1--Min-Max 归一化:依赖所有的样本数据 标准化,归一化零-均值标准化(Z-score):依赖所有的样本数据
或者简单形式:
标准化,归一化Z-score:是动态使用的,只依赖当前的数据x,x越大证明x∗ 越小,这样就可以把很大的数规范在[0-1]之间了。.
缺点 1.丢失样本间的距离信息
2.鲁棒性较差:max为样本数据的最大值,min为样本数据的最小值,当有新的样本加入的时候,最大值与最小值非常容易受异常点影响,因此适合小/固定领域数据场景(例如:奇异样本数据)


1.丢失样本间的权重信息:分母是间接代表权重的标准差.
适合场景 1.小数据/固定数据的时候使用
2.在不涉及距离度量协方差计算数据不符合正太分布的时候.
3.进行多指标综合评价的时候
1.在分类、聚类算法中,需要使用距离来度量相似性的时候、或者使用PCA技术进行降维的时候,标准化方法表现更好。–大样本(鲁棒性更好,)
2.有较好的鲁棒性,有超出取值范围的离散数据 (也有可能是单个指标当中的数据) 或 对最大值或者最小值未知的情况—使用Z-Score的简单形式.–大数据
缩放方式 先使用最小值平移,后使用最值差缩放 先使用均值μ平移,之后用标准差σ进行缩放
目的 便于消除量纲,将各个指标的数据纳入到综合评价 便于后续的梯度下降**函数对数据的处理.因为标准化后,数据以0为中心左右分布(不一定对称),而函数如Sigmoid、Tanh、Softmax等也都以0为中心左右分布(不一定对称)

标准差与权重:某个指标数据对应的数据集标准差过大,说明其不确定性增加,所提供的信息量也会增加,因此在进行综合指标评价的时候,权重也会对应的增大.—-类似熵权法

二.相同点及其联系

1.联系:归一化广义上是包含标准化的,Z-Score方法也是归一化的方法之一,在这里主要是从狭义上,区分两者

2.本质上都是进行特征提取,方便最终的数据比较认识.都通过先平移(分子相减)后缩放(分母)进行进行提取;

3.都是为了缩小范围.便于后续的数据处理.

4.作用:(重点)

  • 加快梯度下降,损失函数收敛;速度上
  • 提升模型精度–也就是分类准确率.(消除不同量纲,便于综合指标评价,提高分类准确率)—质量上
  • 防止梯度爆炸(消除因为数据输入差距(1和2000)过大,而带来的输出差距过大(0.8,999),进而在 反向传播的过程当中,导致梯度过大(因为反向传播的过程当中进行梯度计算,会使用的之前对应层的输入x),从而形成梯度爆炸)—稳定性上

    说明:特征缩放其实并不需要太精确,其目的只是为了让梯度下降能够运行得更快一点,让梯度下降收敛所需的循环次数更少一些而已

三.归一化(广义)的场景

  1. 除非本来各维数据的分布范围就比较接近,否则必须进行标准化,以免模型参数被分布范围较大或较小的数据支配
  2. 数据分布差异比较大–标准化和奇异数据(单个有影响的也要)–归一化

3.1 特征/数据需要归一化的场景

  1. logistic regression模型:逻辑回归,虽然迭代若几次没有影响,但实际当中远不止若干次,这样就会导致逻辑回归模型的目标函数过于扁化,导致梯度很难下降,不容易得到较好的模型参数.
  2. SVM模型:因为涉及到向量/数据的距离(向量之间差异过大/过小,就会导致最佳分离超平面可能会由最大/远或者最小/近的几个向量支配,导致鲁棒性较差,因此需要进行标准化—可以保留向量间的模型)
  3. NeuralNetwork模型:初始输入值过大,反向传播时容易梯度爆炸(上面有解释)
  4. SGD:加快梯度下降.

3.2 不需要归一化的场景

  1. 0/1取值的特征通常不需要归一化,归一化会破坏它的稀疏性
  2. 决策树
  3. 基于平方损失的最小二乘法OLS不需要归一化(因为本质上是一个抛物线,强凸函数,下降速度快.)

四.归一化(狭义)注意事项:

4.1 归一化的方法

4.1.1 小数定标标准化

​ 这种方法通过移动数据的小数点位置来进行标准化。小数点移动多少位取决于属性A的取值中的最大绝对值。将属性A的原始值x使用decimal scaling标准化到x’的计算方法是:

​ $x’=\frac{x}{10^{j}}​$,其中,$j​$是满足条件的最小整数。

​ ​ 例如 假定A的值由-986到917,A的最大绝对值为986,为使用小数定标标准化,我们用1000(即,j=3)除以每个值,这样,-986被规范化为-0.986。

​ 注意,标准化会对原始数据做出改变,因此需要保存所使用的标准化方法的参数,以便对后续的数据进行统一的标准化

4.1.2 softmax对数归一化

$新数据’=\frac{1}{1+e^{-旧数据}}​$

4.1.3 L2归一化:

标准化,归一化L2标准化

  上图所示,L2归一化过程:其实就是x本身/2范数

4.2 指标衡量与权重保留

  在归一化中,指标之间其实一般都存在单位的标准问题,例如:我们评价一个人的健康程度,有如下指标,假设一个人身高 180cm,体重 70kg,白细胞计数$7.50×10^{9}/L$,各个量纲都不一样,因此归一化就是消除各个量纲,然后将各个指标结合起来,共同参与到评价健康程度当中,这个就是归一化需要做的事情–消除量纲,便于数据(结合了各个指标的健康程度)/综合评价的比较.—–>因此我们在进行归一化的时候,我们就需要对各个指标的权重进行保留,方便评价.

4.3 归一化的使用前提

  在存在奇异样本数据的情况下,进行训练之前最好进行归一化,如果不存在奇异样本数据,则可以不用归一化.

五.标准化的过程

即零-均值标准化

$$x_{new}=\frac{x-\mu }{\sigma }​$$

其中 $\mu​$ 是样本数据的均值(mean), $\sigma​$ 是样本数据的标准差(std)

标准化,归一化

  上图则是一个散点序列的标准化过程:原图->减去均值(均值为0–>数据以原点为中心)->除以标准差

对应到三维图像(以损失函数为例)

标准化,归一化

  机器学习的目标无非就是不断优化损失函数,使其值最小。在上图中,$J(w,b)$就是我们要优化的目标函数,在上图中,我们可以看到,损失函数,未处理之前:梯度的方向就会偏离最小值的方向,走很多弯路,经过标准化处理之后,我们损失函数的曲线也变得比较圆,有利于加快梯度下降,加快找到最佳模型参数.具体如下图:

标准化,归一化标准化前
标准化,归一化标准化后

六.参考文献

归一化与标准化-博客园
归一化与标准化
归一化、标准化区别的通俗说法