如何评估已部署到生产环境中的机器学习模型?

为了更清楚地说明问题,我们以贷款违约预测为例。假设我已经离线训练并测试了多个分类器,并将它们集成。然后,我将这个模型部署到了生产环境中。

但是,由于人们的行为、数据及其他许多因素都在变化,我们的模型性能最终会下降。因此,需要用新的、更好的模型来替换它。

部署后的常用技术、模型稳定性测试、模型性能测试和指标有哪些?如何决定何时用新模型替换当前模型?


回答:

这取决于问题类型(分类、回归或聚类),假设你有一个分类问题,并且你已经训练并测试了一个模型,其准确率为75%(或其他指标)。一旦部署到生产环境中,如果准确率显著低于75%,你可以停止模型并检查发生了什么。

在我这里,我会在生产环境中每日记录模型的准确率,持续一周。然后,我计算准确率的平均值和方差,并应用平均值的T检验,以判断准确率是否显著偏离期望的准确率。

希望这对你有帮助

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注