由于我的GIS软件在计算上的限制,我试图在R中实现随机森林用于图像分类。我的输入是一张多波段的TIFF图像,训练数据来自一个ArcGIS形状文件(目标值为0和1)。代码在技术上是可行的,并且产生了有效的输出。当我查看混淆矩阵时,我得到了以下结果:
0 1 class.error
0 11 3 0.214285714
1 1 13 0.071428571
这对于我的数据来说是合理的。然而,当我在我的GIS软件中绘制图像分类的输出(二值重新分类的tiff,值为0和1)时,它以100%的成功率预测了训练数据。换句话说,输出图像没有任何分类错误。为什么混淆矩阵显示有分类错误的情况下会出现这种情况呢?
我是不是错过了什么明显的东西?下面是代码片段。
rf.mdl <- randomForest(x=samples@data[, names(PredMaps)], y=samples@data[, ValueFld], ntree=501, proximity=TRUE, importance=TRUE, keep.forest=TRUE,keep.inbag=TRUE)
ConfMat = rf.mdl$confusion
write.csv(ConfMat,file = "ConfMat1.csv")
predict(PredMaps, rf.mdl, filename=classifiedPath, type="response", na.rm=T, overwrite=T, progress="text")
根据混淆矩阵的指示,我预期输出的分类图像会将1个Value=1的训练点错误分类,并且将3个Value=0的训练点错误分类。
回答:
随机森林算法是一种装袋方法。这意味着它创建了许多弱分类器,然后让每个弱分类器“投票”来生成最终的预测。在RF中,每个弱分类器是一个决策树,它是在训练集的随机样本上训练的。可以把每个决策树训练的随机样本视为一个“袋子”数据。
混淆矩阵中显示的是所谓的“袋外误差”(OOB误差)。这种OOB误差是对模型如何泛化到它从未见过的数据的准确估计(这种估计通常通过在保留的测试集上测试模型来实现)。由于每个决策树只在一个袋子中训练数据,其余的数据(“袋子外”的数据)可以替代这种保留的数据。
OOB误差是通过对训练集中每个观测值进行预测来计算的。然而,在预测每个单独的观测值时,只有那些袋子中不包括该观测值的决策树才被允许参与投票过程。其结果就是训练RF模型后可用的混淆矩阵。
当你使用完整模型预测训练集中的观测值时,袋子中包含每个观测值的决策树现在参与了投票过程。由于这些决策树“记得”它们所训练的观测值,它们会将预测偏向正确的答案。这就是你能达到100%准确率的原因。
本质上,你应该信任使用OOB误差的混淆矩阵。它是对模型如何泛化到未见数据的稳健估计。