为什么在管道中过采样会导致模型系数数量激增?

我有一个这样的模型管道:

from sklearn.preprocessing import StandardScaler, OneHotEncoderfrom sklearn.compose import ColumnTransformer, make_column_transformerfrom sklearn.linear_model import LogisticRegressionfrom sklearn.model_selection import train_test_split# 定义预处理器preprocess = make_column_transformer(    (StandardScaler(), ['attr1', 'attr2', 'attr3', 'attr4', 'attr5',                         'attr6', 'attr7', 'attr8', 'attr9']),    (OneHotEncoder(categories='auto'), ['attrcat1', 'attrcat2']))# 定义训练和测试数据集X_train, X_test, y_train, y_test =     train_test_split(features, target, test_size=0.3, random_state=0)

当我不进行过采样时执行管道,我得到的结果是:

# 在这种情况下不进行过采样os_X_train = X_trainos_y_train = y_trainprint('训练数据的类型是 %s 形状是 %s' % (type(os_X_train), os_X_train.shape))logreg = LogisticRegression(penalty='l2',solver='lbfgs',max_iter=1000)model = make_pipeline(preprocess, logreg)model.fit(os_X_train, np.ravel(os_y_train))print("系数形状是: %s" % logreg.coef_.shape)print("模型系数: ", logreg.intercept_, logreg.coef_)print("逻辑回归得分: %f" % model.score(X_test, y_test))

输出结果为:

训练数据的类型是 <class 'pandas.core.frame.DataFrame'> 形状是 (87145, 11)系数形状是: (1, 47)模型系数:  [-7.51822124] [[ 0.10011794  0.10313989 ... -0.14138371  0.01612046  0.12064405]]逻辑回归得分: 0.999116

这意味着对于87145个样本的训练集,我得到了47个模型系数,这在考虑到定义的预处理后是合理的。OneHotEncoder应用于attrcat1attrcat2,它们总共有31+7个类别,增加了38列,再加上我原有的9列,总共47个特征。

现在,如果我做同样的事情,但这次使用SMOTE进行过采样,如下所示:

from imblearn.over_sampling import SMOTE# 通过过采样训练数据来平衡类别os = SMOTE(random_state=0)os_X_train,os_y_train=os.fit_sample(X_train, y_train.ravel())os_X_train = pd.DataFrame(data=os_X_train, columns=X_train.columns)os_y_train = pd.DataFrame(data=os_y_train, columns=['response'])

输出变为:

训练数据的类型是 <class 'pandas.core.frame.DataFrame'> 形状是 (174146, 11)系数形状是: (1, 153024)模型系数:  [12.02830778] [[ 0.42926969  0.14192505 -1.89354062 ...  0.008847    0.00884372 -8.15123962]]逻辑回归得分: 0.997938

在这种情况下,我得到了大约两倍的训练样本大小以平衡响应类别,这是我想要的,但我的逻辑回归模型的系数激增到了153024个。这没有任何意义…有什么想法吗?


回答:

好的,我找到了这个问题的罪魁祸首。问题在于SMOTE将所有特征列转换为浮点数(包括那两个分类特征)。因此,当在浮点类型列上应用列转换器OneHotEncoder时,列的数量会爆炸到样本数量,即它将每个相同浮点值的出现视为不同的类别。

解决方案只是在运行管道之前将这些分类列的类型转换回整数:

# 通过过采样训练数据来平衡类别os = SMOTE(random_state=0)os_X_train, os_y_train = os.fit_sample(X_train, y_train.ravel())os_X_train = pd.DataFrame(data=os_X_train, columns=X_train.columns)# 关键是要将分类变量从浮点数转换回整数os_X_train['attrcat1'] = os_X_train['attrcat1'].astype(int)os_X_train['attrcat2'] = os_X_train['attrcat2'].astype(int)

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注