我想知道scikit-learn中是否有能够处理NaN/Null值的分类器。我以为随机森林回归器可以处理这个问题,但在调用predict
时遇到了错误。
X_train = np.array([[1, np.nan, 3],[np.nan, 5, 6]])y_train = np.array([1, 2])clf = RandomForestRegressor(X_train, y_train)X_test = np.array([7, 8, np.nan])y_pred = clf.predict(X_test) # 失败!
我不能用任何包含缺失值的scikit-learn算法调用predict吗?
编辑。现在我重新思考这个问题,确实有道理。这在训练过程中不是问题,但在预测时,当变量为null时如何分支呢?也许可以两边都分支然后平均结果?不过,只要距离函数忽略nulls,k-NN应该可以正常工作。
编辑2(更老练的我)一些gbm库(如xgboost)使用三元树而不是二元树正是为了这个目的:两个子节点用于是/否决策,一个子节点用于缺失决策。sklearn使用的是二元树
回答:
我制作了一个包含训练和测试集中都有缺失值的示例
我选择了一种策略,用SimpleImputer
类用均值替换缺失数据。还有其他策略。
from __future__ import print_functionimport numpy as npfrom sklearn.ensemble import RandomForestClassifierfrom sklearn.impute import SimpleImputerX_train = [[0, 0, np.nan], [np.nan, 1, 1]]Y_train = [0, 1]X_test_1 = [0, 0, np.nan]X_test_2 = [0, np.nan, np.nan]X_test_3 = [np.nan, 1, 1]# 创建我们的填补器,用均值替换缺失值imp = SimpleImputer(missing_values=np.nan, strategy='mean')imp = imp.fit(X_train)# 填补我们的数据,然后训练X_train_imp = imp.transform(X_train)clf = RandomForestClassifier(n_estimators=10)clf = clf.fit(X_train_imp, Y_train)for X_test in [X_test_1, X_test_2, X_test_3]: # 填补每个测试项,然后预测 X_test_imp = imp.transform(X_test) print(X_test, '->', clf.predict(X_test_imp))# 结果[0, 0, nan] -> [0][0, nan, nan] -> [0][nan, 1, 1] -> [1]