【风控模型】—WOE与IV指标的深入理解应用

阅读之前看这里????:博主是一名正在学习数据类知识的学生,在每个领域我们都应当是学生的心态,也不应该拥有身份标签来限制自己学习的范围,所以博客记录的是在学习过程中一些总结,也希望和大家一起进步,在记录之时,未免存在很多疏漏和不全,如有问题,还请私聊博主指正。
博客地址:天阑之蓝的博客,学习过程中不免有困难和迷茫,希望大家都能在这学习的过程中肯定自己,超越自己,最终创造自己。

风控业务背景

在评分卡建模流程中,WOE(Weight of Evidence)常用于特征变换,IV(Information Value)则用来衡量特征的预测能力。风控建模同学可能都很熟悉这两者的应用,但我们仍然可能疑惑诸如“如何调整WOE分箱?“、“WOE与LR之间的关系?”这些问题。

1. WOE和IV的应用价值

WOE(Weight of Evidence)叫做证据权重,大家可以思考下为什么会取这个名字?

WOE是对原始特征的一种编码形式。要对一个特征进行WOE编码,需要首先把这个变量进行分组处理(也叫离散化、分箱等等,说的都是一个意思)。

那么WOE在业务中常有哪些应用呢?

  • 处理缺失值:当数据源没有100%覆盖时,那就会存在缺失值,此时可以把null单独作为一个分箱。这点在分数据源建模时非常有用,可以有效将覆盖率哪怕只有20%的数据源利用起来。
  • 处理异常值:当数据中存在离群点时,可以把其通过分箱离散化处理,从而提高变量的鲁棒性(抗干扰能力)。例如,age若出现200这种异常值,可分入“age> 60”这个分箱里,排除影响。
  • 业务解释性:我们习惯于线性判断变量的作用,当x越来越大,y就越来越大。但实际x与y之间经常存在着非线性关系,此时可经过WOE变换。

IV(Information Value)是与WOE密切相关的一个指标,常用来评估变量的预测能力。因而可用来快速筛选变量。在应用实践中,其评价标准如下:

IV预测范围 预测效果 英文描述
小于0.02 几乎没有 unpredictive
0.02-1 weak
0.1-0.3 中等 medium
0.3-0.5 strong
大于0.5 难以置信,需确认 suspicious

在此引用一段话来说明两者的区别和联系:

  1. WOE describes the relationship between a predictive variable and a binary target variable.
  2. IV measures the strength of that relationship.

2. WOE和IV的计算步骤

在定性认识到WOE和IV的应用价值后,我们就慢慢揭开其面纱,从理性角度进行分析。通常其公式定义如下:
WOEi=ln(BadiBadT/GoodiGoodT)=ln(BadiBadT)ln(GoodiGoodT)WOE_i=ln(\frac{Bad_i}{Bad_T}/\frac{Good_i}{Good_T})=ln(\frac{Bad_i}{Bad_T})-ln(\frac{Good_i}{Good_T})

而IV的计算公式定义如下,其可认为是WOE的加权和。为什么会定义成这样?
IVi=(BadiBadTGoodiGoodTWOEi)=(BadiBadTGoodiGoodTln(BadiBadT)ln(GoodiGoodT))IV=i=1nIViIV_i=(\frac{Bad_i}{Bad_T}-\frac{Good_i}{Good_T}*WOE_i)\\=(\frac{Bad_i}{Bad_T}-\frac{Good_i}{Good_T}*ln(\frac{Bad_i}{Bad_T})-ln(\frac{Good_i}{Good_T}))\\ IV=\sum_{i=1}^n IV_i

为帮助大家理解,现以具体数据介绍WOE和IV的计算步骤,如图1所示。

  • step 1.对于连续型变量,进行分箱(binning),可以选择等频、等距,或者自定义间隔;对于离散型变量,如果分箱太多,则进行分箱合并。
  • step 2. 统计每个分箱里的好人数(bin_goods)和坏人数(bin_bads)。
  • step 3.分别除以总的好人数(total_goods)和坏人数(total_bads),得到每个分箱内的边际好人占比(margin_good_rate)和边际坏人占比(margin_bad_rate)。
  • step 4. 计算每个分箱里的WOE=ln(marginbadratemargingoodrate)WOE=ln(\frac{margin_badrate}{margin_goodrate})
  • step 5. 检查每个分箱(除null分箱外)里woe值是否满足单调性,若不满足,返回step1。注意⚠️:null分箱由于有明确的业务解释,因此不需要考虑满足单调性。
  • step 6. 计算每个分箱里的IV,最终求和,即得到最终的IV。
    备注:好人 = 正常用户,坏人 = 逾期用户
    【风控模型】—WOE与IV指标的深入理解应用

另外还需要注意什么呢?

1.分箱时需要注意样本量充足,保证统计意义。
2.若相邻分箱的WOE值相同,则将其合并为一个分箱。
3.当一个分箱内只有好人或坏人时,可对WOE公式进行修正如下:
WOEi=ln((Badi+0.5Goddi+0.5)/(BadTGoodT))WOE_i=ln((\frac{Bad_i+0.5}{Godd_i+0.5})/(\frac{Bad_T}{Good_T}))

在实践中,我们还需跨数据集检验WOE分箱的单调性。如果在训练集上保持单调,但在验证集和测试集上发生翻转而不单调,那么说明分箱并不合理,需要再次调整。下图是合理的WOE曲线变化示例。

【风控模型】—WOE与IV指标的深入理解应用
图 2 - 左为训练集WOE曲线,右为测试集WOE曲线(都单调)

这里提前给大家留下问题:为什么要保持WOE曲线要保持单调性?在某些情况下是不是可以不满足单调性?是不是线性就更好?WOE曲线的斜率是否越陡越好?

3. WOE定义的初步猜想

为了搞清楚为什么WOE公式是如此定义的,我们尝试对其进行各种变换。
WOEi=ln(BadiBadT/GoodiGoodT)=ln(BadiBadT)ln(GoodiGoodT)WOE_i=ln(\frac{Bad_i}{Bad_T}/\frac{Good_i}{Good_T})=ln(\frac{Bad_i}{Bad_T})-ln(\frac{Good_i}{Good_T})

WOE=ln(i/)ln(i/)WOE = ln (第i个分箱的坏人数 / 总坏人数) - ln (第i个分箱的好人数 / 总好人数)

此时可以理解为:每个分箱里的坏人分布相对于好人分布之间的差异性。

我们对公式再变换为:
WOE=ln(i/i)ln(/)WOE = ln (第i个分箱的坏人数 / 第i个分箱的好人数) - ln (总坏人数 / 总好人数)

此时可以理解为:每个分箱里的坏好比(Odds)相对于总体的坏好比之间的差异性

但是,为什么要再套一个对数ln?

之前看到一种解释是为了进行平滑处理。那么为什么不引入拉普拉斯平滑,也就是在分子分母中都加上一个数?如果加上1,那么公式推导如下:
【风控模型】—WOE与IV指标的深入理解应用

此时含义是:总体good_rate相对于分箱内good_rate的倍数。

其实发现这种形式会更符合我们的直觉。因此,“取对数是为了平滑处理”——这种解释无法说服我们。
同时,我们又会疑惑为什么不把WOE定义为:
【风控模型】—WOE与IV指标的深入理解应用
因此,我们发现无法通过常规思维去理解这一切,于是开始去寻找新的工具。

4.从贝叶斯角度理解WOE

贝叶斯理论认为我们认知世界是一个循序渐进的过程,首先我们有一个主观的先验认知,进而不断通过观测数据来修正先验认知,得到后验认知。随着这个过程不断迭代,我们对世界的认识也就越来越完善。其中,从观测数据中提取信息来支撑我们的原始假设就是WOE。

在信贷风控中,识别好人和坏人也是同样的道理。我们根据历史样本数据形成一个先验认知
【风控模型】—WOE与IV指标的深入理解应用

当Odds小于1时,预测为Good的概率更高,此时我们认为一般情况下都是好人。但实际中样本会受到各种因素(自变量)影响而导致变坏。

因此,我们就开始搜集样本的各种特征,希望这些证据能帮助我们对这个样本全貌有更为全面的理解,进而修正我们的先验认识。这个过程用公式可以表达如下。提示:留意两侧为什么会取自然对数ln,而不是log?
【风控模型】—WOE与IV指标的深入理解应用
其中,ln(p(Y=BadX)p(Y=GoodX))ln(\frac{p(Y=Bad|X)}{p(Y=Good|X)})表示后验项;ln(p(Y=Bad)p(Y=Good))ln(\frac{p(Y=Bad)}{p(Y=Good)})表示根据观测数据更新信息,即WOE;ln(p(Y=Bad)p(Y=Good))ln(\frac{p(Y=Bad)}{p(Y=Good)})表示先验项。

如果搜集到的数据与先验认知的差距不大,我们就认为这个数据中得到的证据价值不大,反之则认为带来的信息越多。因此,WOE用以衡量对先验认识修正的增量,这就是WOE被取名为“证据权重”的原因。

5.WOE与评分卡模型的渊源

评分卡模型基于假设“历史样本和未来样本服从同一总体分布”,故而才能从历史样本中归纳出数理统计规律来预测未来样本的表现。评分卡通常采用逻辑回归(Logistics Regression)进行建模,其原因有很多,比如可解释性、简单模型、小样本学习等等。

我们从“数据->信息->知识->决策”框架来解释完整的流程。

  • step1. 从不同信道里获取了观测数据(Data),并从中提取了特征X。
  • step2. 此时发现各渠道采集的信息并不在一个尺度上,无法融合。因此,我们通过WOE变换对信息进行处理,将其对标到统一尺度上。
  • step3. LR模型对不同信息采用不同权重(weight)进行加权融合,并通过sigmoid函数映射为0~1的概率。
  • step4. 基于LR模型的输出结果,人工进行决策,判定好人还是坏人。

【风控模型】—WOE与IV指标的深入理解应用

初识WOE是在评分卡模型中,当时仍不懂它们之间的关系。我们可能会疑惑,WOE是在建立评分卡理论时应运而生,还是属于一种通用的信息变换方法?

为了简化处理,我们只考虑一个自变量 xx ,那么评分卡模型的形式为:
【风控模型】—WOE与IV指标的深入理解应用

我们可以观察到WOE公式与LR左边部分是如此相似。回到贝叶斯角度解释WOE时留下的提示——两侧为什么会取自然对数ln,而不是log

在评分卡模型中我们就得到了一种可能的解释,主要是为了适配于LR模型

接下来解释WOE曲线需要保持单调性的意义。

首先,引入Odds(几率)概念:
【风控模型】—WOE与IV指标的深入理解应用
然后我们把相邻两个分箱的WOE值相减。

【风控模型】—WOE与IV指标的深入理解应用
在上述等式中,权重w可以认为是常数,因此我们会发现:

  1. 分子和分母的变化趋势一致,当WOEWOE单调递增时,分子中ln(odds)ln(odds)也是单调变化,由此P(Y=Bad)P(Y=Bad)也是单调变化。
  2. 当分母变化越大时,分子也会变化越大,宏观表现就是WOEWOE曲线越陡。此时,好人与坏人的区分将会越明显。

6.从相对熵角度理解IV

我们会留意到下面三者好像都和“信息”有关系,那这三者之间存在怎样的联系呢?

信息熵(Shannon entropy)、相对熵(relative entropy)、 信息量(Information Value)

因此,我们把PSI、IV的计算公式放在一起进行对比,希望能观察出一些线索。
【风控模型】—WOE与IV指标的深入理解应用
我们会发现两者形式上是完全一致的,这主要是因为它们背后的支撑理论都是相对熵。我们可以归纳为:

  1. PSI衡量预期分布和实际分布之间的差异性,IV把这两个分布具体化为好人分布和坏人分布。IV指标是在从信息熵上比较好人分布和坏人分布之间的差异性。

【风控模型】—WOE与IV指标的深入理解应用

  1. PSI和IV在取值范围与业务含义的对应上也是存在统一性,只是应用场景不同——PSI用以判断变量稳定性,IV用以判断变量预测能力。

【风控模型】—WOE与IV指标的深入理解应用

转载链接:https://zhuanlan.zhihu.com/p/80134853
—————————————————————————————————————————————————
博主码字不易,大家关注点个赞转发再走呗 ,您的三连是激发我创作的源动力^ - ^
【风控模型】—WOE与IV指标的深入理解应用