精度评价主要方法:混淆矩阵和Kappa统计
精度评价主要方法:混淆矩阵和Kappa统计
对分类结果进行评价,确定分类的精度和可靠性,有两种方式用于精度验证:一是混淆矩阵,二是ROC曲线。比较常用的为混淆矩阵,ROC曲线可以用图形的方式表达分类精度,比较形象。评价精度的因子有混淆矩阵、总体分类精度、Kappa系数、错分误差、漏分误差、每一类的制图精度和用户精度,下面分条介绍。
混淆矩阵(confusion matrix)
误差矩阵(error matrix)又称混淆矩阵(confusion matrix),是一个用于表示分为某一类别的像元个数与地面检验为该类别数的比较阵列。通常,阵列中的列代表参考数据,行代表由遥感数据分类得到的类别数据。有像元数和百分比表示两种。
|
Ground Truth(Pixels) |
|
||||
Class |
水体 |
林地 |
耕地 |
未利用地 |
居民地 |
Total |
水体 |
25792 |
0 |
0 |
2 |
44 |
25838 |
林地 |
80 |
16825 |
297 |
684 |
1324 |
19210 |
耕地 |
519 |
60 |
27424 |
38 |
11542 |
39583 |
未利用地 |
31 |
0 |
0 |
9638 |
487 |
10156 |
居民地 |
323 |
0 |
49 |
133 |
30551 |
31056 |
Total |
26745 |
16885 |
27770 |
10495 |
43948 |
125843 |
Kappa系数(Kappa Coefficient)
它是通过把所有真实参考的像元总数(N)乘以混淆矩阵对角线(XKK)的和,再减去各类中真实参考像元数与该类中被分类像元总数之积之后,再除以像元总数的平方减去各类中真实参考像元总数与该类中被分类像元总数之积对所有类别求和的结果。结果k=83.96%.
指被分为用户感兴趣的类,而实际上属于另一类的像元,错分误差显示在混淆矩阵的行里面。本例中,总共划分为林地有19210个像元,其中正确分类16825,2385个是其他类别错分为林地(混淆矩阵中林地一行其他类的总和),那么其错分误差为2385/19210= 12.42%。
漏分误差(Omission Error)
指本属于地表真实分类,但没有被分类器分到相应类别中的像元数。漏分误差显示在混淆矩阵的列里。漏分误差显示在混淆矩阵的列里。如在本例中的林地类,有真实参考像元16885个,其中16825个正确分类,其余60个被错分为其余类(混淆矩阵中耕地类中一列里其他类的总和),
漏分误差60/16885=0.36%。
制图精度(Producer’s Accuracy)
制图精度或生产者精度是指分类器将整个影像的像元正确分为A类的像元数(对角线值)与A类真实参考总数(混淆矩阵中A类列的总和)的比率。如本例中林地有16885个真实参考像元,其中16825个正确分类,因此林地的制图精度是16825/16885=99.64%。制图精度= 100%-漏分误差。
用户精度(User’s Accuracy)
是指正确分到A类的像元总数(对角线值)与分类器将整个影像的像元分为A类的像元总数(混淆矩阵中A类行的总和)比率。如本例中林地有16825个正确分类,总共划分为林地的有19210,所以林地的用户精度是16825/19210=87.58%。用户精度=100%-错分误差。