我想在我的决策树中创建一个预测概率,使其与每个类别成反比。类似于这里第9页4.1节中的公式所描述的那样。我如何参照我的代码来实现它:
import numpy as npimport pandas as pdfrom sklearn.cross_validation import train_test_splitfrom sklearn.tree import DecisionTreeClassifierfrom sklearn.metrics import accuracy_scorefrom sklearn import treeurl="https://archive.ics.uci.edu/ml/machine-learning-databases/abalone/abalone.data"c=pd.read_csv(url, header=None)X = c.values[:,1:8]Y = c.values[:,0]X_train, X_test, y_train, y_test = train_test_split( X, Y, test_size = 0.3, random_state = 100)clf_entropy = DecisionTreeClassifier(criterion = "entropy", random_state = 100, max_depth=3, min_samples_leaf=5)clf_entropy.fit(X_train, y_train)probs = clf_entropy.predict_proba(X_test)probs
目标是用一个小的非零值替换零概率,并对概率进行归一化处理,使其成为一个分布。然后选择标签,使得选择的概率与当前树的预测成反比。
回答:
提到的方程可以用以下代码片段实现。
def inverse_prob(model_probs): model_probs[model_probs == 0 ] = 1e-5 inverse = 1/model_probs return inverse/inverse.sum(axis=0)
当给定的概率分布中有零值时,添加了一个小值1e-5。