下面的代码是我第一次尝试泰坦尼克号Kaggle竞赛的代码。有什么问题,因为我的预测结果显示mean_absolute_error
为零。
df = pd.read_csv('train.csv')y=df['Survived']feature_columns = ['Pclass']X = df[feature_columns]# splitX_train, X_test, y_train, y_test = train_test_split(X, y, random_state=1)model = RandomForestClassifier(random_state=1)model.fit(X_train, y_train)predictions = model.predict(X_test)#validationval_mae = mean_absolute_error(predictions, y_test)print("Validation MAE: {:,.0f}".format(val_mae))
回答:
列df[‘Survived’]是一个独热编码列,即它只包含[0,1]的值,这意味着单个数据点的最大绝对误差可以达到1(即如果你的模型预测为1而实际为0,或反之;值得注意的是,个别的绝对误差只能是0或1,因为你的y_true要么是0要么是1,而你的预测结果也是0或1)。因此,mean_absolute_error的值也会在0和1之间,而你在这里将这个值四舍五入到最接近的整数"Validation MAE: {:,.0f}".format(val_mae)
,所以如果它<= 0.5,它只会显示为0。
其他几点:这是一个分类问题,你不应该使用mean_absolute_error,这是用于回归问题的。相反,应该使用confusion_matrix/classification_report。此外,mean_absolute_error的输入值应为mean_absolute_error(y_true, y_predicted),因此在你的代码中(如果你要使用mean_absolute_error的话)应该这样写mean_absolute_error(y_test, predictions)。