我有一个数据集,包含数值和分类数据,我想根据患者的医学特征预测不良结果。我为我的数据集定义了一个预测流程,如下所示:
X = dataset.drop(columns=['target'])y = dataset['target']# 定义分类和数值转换器numeric_transformer = Pipeline(steps=[ ('knnImputer', KNNImputer(n_neighbors=2, weights="uniform")), ('scaler', StandardScaler())])categorical_transformer = Pipeline(steps=[ ('imputer', SimpleImputer(strategy='constant', fill_value='missing')), ('onehot', OneHotEncoder(handle_unknown='ignore'))])# 将对象列分配给分类转换器,其余列分配给数值转换器preprocessor = ColumnTransformer(transformers=[ ('num', numeric_transformer, selector(dtype_exclude="object")), ('cat', categorical_transformer, selector(dtype_include="object"))])# 将分类器附加到预处理流程中。现在我们有了一个完整的预测流程。clf = Pipeline(steps=[('preprocessor', preprocessor), ('classifier', LogisticRegression())])X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)clf.fit(X_train, y_train)print("model score: %.3f" % clf.score(X_test, y_test))
然而,运行这段代码时,我得到了以下警告信息:
ConvergenceWarning: lbfgs failed to converge (status=1):STOP: TOTAL NO. of ITERATIONS REACHED LIMIT.Increase the number of iterations (max_iter) or scale the data as shown in: https://scikit-learn.org/stable/modules/preprocessing.htmlPlease also refer to the documentation for alternative solver options: https://scikit-learn.org/stable/modules/linear_model.html#logistic-regression extra_warning_msg=_LOGISTIC_SOLVER_CONVERGENCE_MSG) model score: 0.988
有人能解释一下这个警告是什么意思吗?我是机器学习的新手,所以对如何改进预测模型有些迷茫。正如您从数值转换器中看到的,我通过标准化对数据进行了缩放。我也对模型得分相当高感到困惑,不知道这是好事还是坏事。
回答:
这个警告主要说明了它的意思:建议尝试使求解器(算法)收敛。
lbfgs
代表:“有限记忆的布罗伊登-弗莱彻-戈尔法布-香农算法”。这是Scikit-Learn库提供的求解器算法之一。
有限记忆这个术语简单地意味着它只存储少数表示梯度近似的向量。
它在相对较小的数据集上有更好的收敛性。
但什么是算法收敛呢?
简单来说,如果求解的误差在一个非常小的范围内波动(即,几乎没有变化),那么这意味着算法达到了解决方案(不一定是最好的解决方案,因为它可能卡在所谓的“局部最优”)。
另一方面,如果误差明显变化(即使误差相对较小[像您的情况分数很好],但每次迭代之间的误差差异大于某个容忍度),那么我们说算法没有收敛。
现在,您需要知道Scikit-Learn API有时会为用户提供一个选项,指定算法在以迭代方式搜索解决方案时应采取的最大迭代次数:
LogisticRegression(... solver='lbfgs', max_iter=100 ...)
如您所见,LogisticRegression中的默认求解器是’lbfgs’,默认的最大迭代次数是100。
最后,请注意,增加最大迭代次数并不能保证收敛,但它确实有帮助!
更新:
根据您下面的评论,以下是一些可能有助于算法收敛的尝试(许多建议中的一些):