Scikit_learn的PolynomialFeatures与逻辑回归导致得分降低

我有一个数据集 X,其形状为(1741, 61)。使用带有交叉验证的逻辑回归时,每次分割的得分大约在62-65%之间(cv =5)。

我以为如果将数据变成二次形式,准确率应该会提高。然而,我得到了相反的效果(交叉验证的每次分割得分在40%左右)。因此,我猜想在尝试将数据变成二次形式时,我做错了什么?

这是我使用的代码,

from sklearn import preprocessingX_scaled = preprocessing.scale(X)from sklearn.preprocessing import PolynomialFeaturespoly = PolynomialFeatures(3)poly_x =poly.fit_transform(X_scaled)classifier = LogisticRegression(penalty ='l2', max_iter = 200)from sklearn.cross_validation import cross_val_scorecross_val_score(classifier, poly_x, y, cv=5)array([ 0.46418338,  0.4269341 ,  0.49425287,  0.58908046,  0.60518732])

这让我怀疑我做错了什么。

我尝试将原始数据转换为二次形式,然后使用 preprocessing.scale 来缩放数据,但这导致了错误。

UserWarning: Numerical issues were encountered when centering the data and might not be solved. Dataset may contain too large values. You may need to prescale your features. warnings.warn("Numerical issues were encountered "

所以我没有继续这条路。

另一个困扰我的问题是二次计算的速度。使用多项式特征时,cross_val_score 需要几个小时才能输出得分。有没有办法加快这个过程?我有一台配备了Intel i5-6500 CPU 和16 GB内存的电脑,操作系统是Windows 7。

谢谢你。


回答:

你有没有试过使用 MinMaxScaler 而不是 ScalerScaler 会输出高于和低于0的值,因此你会遇到这种情况:缩放值为-0.1和0.1的值将具有相同的平方值,尽管它们实际上并不相似。从直觉上讲,这似乎会降低多项式拟合的得分。尽管如此,我还没有测试过,这是我的直觉。此外,请小心使用多项式拟合。我建议阅读这个关于“为什么在多项式回归中使用正则化而不是降低度数”的回答。这是一个很好的解释,可能会让你了解一些新的技术。顺便说一下,@某某某是一位出色的老师,我推荐阅读他所有的回答和博客文章。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注