在我的数据集中,有一些数据(例如 1.4619664882428694e+258
)超过了 float32
的最大值(3.4028235e+38
)。现在在模型拟合过程中,我遇到了以下错误:
Input contains NaN, infinity or a value too large for dtype('float32').
我尝试了以下代码:
df_features = pd.read_csv('data\df_features.csv')df_target = pd.read_csv('data\df_target.csv')X_train, X_test, y_train, y_test = train_test_split(df_features, df_target, test_size=.25, random_state=0)model = AdaBoostRegressor()try: model.fit(X_train, y_train) y_pred = model.predict(X_test) acc = r2_score(y_test, y_pred) print(acc)except Exception as error: print(error)
如果我想使用真实数据而不进行归一化,我该如何解决这个问题?是否有任何选项可以将sklearn的默认数据类型设置为float64?如果有,那么如何设置?
回答:
这是一个数值精度问题。目前没有解决方案。这些数字非常大
我可以使用以下代码重现这个问题:
import numpy as npfrom sklearn.ensemble import AdaBoostRegressorX = np.repeat([1.4619664882428694e+258],100)X = X.reshape(10,10)y = np.ones((10,1))model = AdaBoostRegressor()model.fit(X,y)
ValueError: Input contains NaN, infinity or a value too large for dtype(‘float32’).
np.all(np.isfinite(X))True
我在这里提交了一个请求:https://github.com/scikit-learn/scikit-learn/issues/15628