在对一个二分类问题运行h2o.deeplearning后,我接着运行了h2o.predict,并得到了以下结果
predict No Yes1 No 0.9784425 0.02155752 Yes 0.4667428 0.53325723 Yes 0.3955087 0.60449134 Yes 0.7962034 0.20379665 Yes 0.7413591 0.25864096 Yes 0.6800801 0.3199199
我原本希望得到一个只有两行的混淆矩阵,但结果看起来完全不同。我该如何解释这些结果?有没有办法得到类似于包含实际值和预测值以及错误百分比的混淆矩阵?
回答:
你可以从模型拟合中提取这些信息(例如,如果你传递了一个validation_frame
),或者你可以使用h2o.performance()
来获取一个H2OBinomialModel性能对象,并使用h2o.confusionMatrix()
提取混淆矩阵。
示例:
fit <- h2o.deeplearning(x, y, training_frame = train, validation_frame = valid, ...)h2o.confusionMatrix(fit, valid = TRUE)
或者
fit <- h2o.deeplearning(x, y, train, ...)perf <- h2o.performance(fit, test)h2o.confusionMatrix(perf)