假设我有一个训练数据集。我将其分为训练/测试数据集。对于训练,我使用标准缩放器对训练数据进行fit.transform操作,对测试数据进行transform操作。然后,我训练一个模型并保存它。
train.py:
data = pd.read_csv("train.csv")X = data["X"]y = data["y"]X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)scale = StandardScaler()X_train_s = scale.fit_transform(X_train)X_test_s = scale.transform(X_test)model.fit(X_train_s, y_train)y_pred = model.predcit(X_test_s)# save modeljoblib.dump(model, filename)
现在,我在另一个脚本中加载模型,并且我有另一个仅用于预测的数据集。问题是,当我没有训练数据集时,如何对预测数据集进行缩放。像下面这样对预测数据集进行fit.transform操作是否正确?
prediction.py
data = pd.read_csv("prediction.csv")X = data["X"]y = data["y"]scale = StandardScaler()X_predict_s = scale.fit_transform(X)loaded_model = joblib.load(filename)y_pred = loaded_model(X_predict_s)
或者我需要将训练数据加载到prediction.py
中,并使用它来对缩放器进行fit.transform操作。
回答:
我喜欢使用pickle
,但相同的逻辑也适用于joblib
。
本质上,你需要保存你的缩放器并在新脚本中加载它,就像你对model
和loaded_model
所做的那样。
在训练模型的脚本中:
from pickle import dump# save modeldump(model, open('model.pkl', 'wb'))# save scalerdump(scale, open('scale.pkl', 'wb'))
在加载模型的脚本中:
from pickle import load# load modelloaded_model = load(model, open('model.pkl', 'rb'))# load scalerloaded_scale = load(scale, open('scale.pkl', 'rb'))
现在你需要使用loaded_scale
来转换你的数据,并使用loaded_model
对缩放后的数据进行预测。