Scikit_learn的PolynomialFeatures与逻辑回归导致得分降低

我有一个数据集 X,其形状为(1741, 61)。使用带有交叉验证的逻辑回归时,每次分割的得分大约在62-65%之间(cv =5)。

我以为如果将数据变成二次形式,准确率应该会提高。然而,我得到了相反的效果(交叉验证的每次分割得分在40%左右)。因此,我猜想在尝试将数据变成二次形式时,我做错了什么?

这是我使用的代码,

from sklearn import preprocessingX_scaled = preprocessing.scale(X)from sklearn.preprocessing import PolynomialFeaturespoly = PolynomialFeatures(3)poly_x =poly.fit_transform(X_scaled)classifier = LogisticRegression(penalty ='l2', max_iter = 200)from sklearn.cross_validation import cross_val_scorecross_val_score(classifier, poly_x, y, cv=5)array([ 0.46418338,  0.4269341 ,  0.49425287,  0.58908046,  0.60518732])

这让我怀疑我做错了什么。

我尝试将原始数据转换为二次形式,然后使用 preprocessing.scale 来缩放数据,但这导致了错误。

UserWarning: Numerical issues were encountered when centering the data and might not be solved. Dataset may contain too large values. You may need to prescale your features. warnings.warn("Numerical issues were encountered "

所以我没有继续这条路。

另一个困扰我的问题是二次计算的速度。使用多项式特征时,cross_val_score 需要几个小时才能输出得分。有没有办法加快这个过程?我有一台配备了Intel i5-6500 CPU 和16 GB内存的电脑,操作系统是Windows 7。

谢谢你。


回答:

你有没有试过使用 MinMaxScaler 而不是 ScalerScaler 会输出高于和低于0的值,因此你会遇到这种情况:缩放值为-0.1和0.1的值将具有相同的平方值,尽管它们实际上并不相似。从直觉上讲,这似乎会降低多项式拟合的得分。尽管如此,我还没有测试过,这是我的直觉。此外,请小心使用多项式拟合。我建议阅读这个关于“为什么在多项式回归中使用正则化而不是降低度数”的回答。这是一个很好的解释,可能会让你了解一些新的技术。顺便说一下,@某某某是一位出色的老师,我推荐阅读他所有的回答和博客文章。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注