我的问题是理论性的而非技术性的,因此我没有在这里发布我的代码,因为代码可以在sklearn网站上找到。
我构建了一个分类器,并使用sklearn进行了5折交叉验证。在我的代码中,我在每个折中计算了各种准确性参数,如敏感性、特异性、F1分数等。完成5折交叉验证后,我平均了所有准确性参数。
最后,我的脚本创建了一个ROC曲线以及AUC得分,并为其他准确性参数生成直方图,并生成一个HTML报告文件。
交叉验证意味着内部测试,但当我使用外部测试数据集时,问题就开始了。
我的问题是,如何预测外部数据集,以下方法中哪一种是正确的?
-
交叉验证后,保存从每个折中平均参数的模型,并使用此模型预测外部测试集并计算评估报告。如果是这样,我该如何操作?你能展示一个例子代码,帮助我保存n折交叉验证后的模型吗?
-
使用整个数据集构建模型,保存模型以预测外部测试集并计算评估报告。如果这是正确的方法,谢谢,我知道代码。
-
是否有我遗漏的其他方法,请分享。
谢谢你。
回答:
正确的方法是
使用整个数据集构建模型,保存模型以预测外部测试集并计算评估报告
原因是我们仅使用交叉验证来衡量超参数的性能。我们通过将每个折作为测试折一次来做到这一点,这意味着每个数据点都有机会作为测试数据点一次。