我在学习使用xgboost
,并且已经阅读了相关文档!然而,我不明白为什么我的脚本输出在0~~2
之间。首先,我以为输出应该是0或1,因为这是一个二进制
分类,但后来我读到输出是0或1的概率,然而,一些输出是1.5+
(至少在CSV文件中),这对我来说没有意义!
我不确定问题出在xgboost
的参数设置上还是CSV文件的创建上!这一行,np.expm1(preds)
,我不确定是否应该使用np.expm1
,但我不知道可以用什么来替换它!
总之,我的疑问是:
为什么输出不是0或1,而是0.0xxx和1.xxx?
这是我的脚本:
import numpy as npimport xgboost as xgbimport pandas as pdtrain = pd.read_csv('../dataset/train.csv')train = train.drop('ID', axis=1)y = train['TARGET']train = train.drop('TARGET', axis=1)x = traindtrain = xgb.DMatrix(x.as_matrix(), label=y.tolist())test = pd.read_csv('../dataset/test.csv')test = test.drop('ID', axis=1)dtest = xgb.DMatrix(test.as_matrix())# XGBoost params:def get_params(): # params = {} params["objective"] = "binary:logistic" params["booster"] = "gbtree" params["eval_metric"] = "auc" params["eta"] = 0.3 # params["subsample"] = 0.50 params["colsample_bytree"] = 1.0 params["max_depth"] = 20 params["nthread"] = 4 plst = list(params.items()) # return plstbst = xgb.train(get_params(), dtrain, 1000)preds = bst.predict(dtest)print np.max(preds)print np.min(preds)print np.average(preds)# Make Submissiontest_aux = pd.read_csv('../dataset/test.csv')result = pd.DataFrame({"Id": test_aux["ID"], 'TARGET': np.expm1(preds)})result.to_csv("xgboost_submission.csv", index=False)
回答:
当你运行一个目标为binary:logistic
的xgb
模型时,你会得到每个样本的概率数组。这些概率表示样本属于类i
的可能性。
假设你有3个类[A, B, C]
。对于样本y
的输出如[0.2, 0.6, 0.4]
,表示这个样本最可能属于类B。
如果你只想要最可能的类,可以使用这样的概率数组中最大元素的索引,例如使用numpy
函数argmax。
你可以在xgb
包参数的文档中找到更多信息。