我正在尝试构建一个用于回归问题的预测的Flask服务。我拥有构建模型所需的数据,这些数据大约有20列。使用这些数据,我已经构建了一个不错的回归模型。但在训练模型时,我进行了大量的特征工程工作,例如对数Box-Cox变换、独热编码、因为高多重共线性而删除了一些列等,现在特征的数量增加到了35个。我在这些35个特征上训练了模型,检查了性能,并使用pickle
保存了模型。我在Flask服务中加载了我的pickle模型。但现在模型的输入格式仍然是我原始数据的格式,只有20列。
那么,我如何对新的一组输入进行所有的特征工程呢?我只能保存训练好的模型,但如何在将新数据用于预测之前完成所有的特征工程呢?
回答:
一旦特征工程工作成功(经过多次实验),就应该将其转化为输入处理代码(作为机器学习pipeline的一部分)。这些代码,经过一些重构后,应该成为在输入到训练模型之前的输入处理代码。
这通常通过可插拔的架构来支持(如Pipeline
in sklearn或tf.data
在TensorFlow中的一组类)。