我使用的是StratifiedKFold,所以我的代码看起来是这样的
def train_model(X,y,X_test,folds,model): scores=[] for fold_n, (train_index, valid_index) in enumerate(folds.split(X, y)): X_train,X_valid = X[train_index],X[valid_index] y_train,y_valid = y[train_index],y[valid_index] model.fit(X_train,y_train) y_pred_valid = model.predict(X_valid).reshape(-1,) scores.append(roc_auc_score(y_valid, y_pred_valid)) print('CV mean score: {0:.4f}, std: {1:.4f}.'.format(np.mean(scores), np.std(scores)))folds = StratifiedKFold(10,shuffle=True,random_state=0)lr = LogisticRegression(class_weight='balanced',penalty='l1',C=0.1,solver='liblinear')train_model(X_train,y_train,X_test,repeted_folds,lr)
现在在训练模型之前我想标准化数据,那么正确的方法是哪一种?
1)
scaler = StandardScaler()X_train = scaler.fit_transform(X_train)X_test = scaler.transform(X_test)
在调用train_model函数之前这样做
2)
在函数内进行标准化,像这样
def train_model(X,y,X_test,folds,model): scores=[] for fold_n, (train_index, valid_index) in enumerate(folds.split(X, y)): X_train,X_valid = X[train_index],X[valid_index] y_train,y_valid = y[train_index],y[valid_index] scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_vaid = scaler.transform(X_valid) X_test = scaler.transform(X_test) model.fit(X_train,y_train) y_pred_valid = model.predict(X_valid).reshape(-1,) scores.append(roc_auc_score(y_valid, y_pred_valid)) print('CV mean score: {0:.4f}, std: {1:.4f}.'.format(np.mean(scores), np.std(scores)))
据我所知,第二种选项不会泄露数据。那么如果我不使用管道,哪种方式是正确的?如果我想使用交叉验证,又该如何使用管道?
回答:
确实,第二种选项更好,因为在标准化X_train
时,缩放器不会看到X_valid
的值。
现在,如果你想使用管道,可以这样做:
from sklearn.pipeline import make_pipelinedef train_model(X,y,X_test,folds,model): pipeline = make_pipeline(StandardScaler(), model) ...
然后用pipeline
代替model
。在每次fit
或predict
调用时,它会自动标准化手头的数据。
请注意,你还可以使用scikit-learn中的cross_val_score函数,并设置参数scoring='roc_auc'
。