我使用了来自UCI机器学习库的扑克手牌数据集,我应用了一个神经网络,一切都运行正常。只是在呈现混淆矩阵时出现了问题。以下是我的代码(请忽略我的评论,我是德国人..):
# Code reproduzierbar machenfrom numpy.random import seedseed(0)from tensorflow import set_random_seedset_random_seed(0)# Importiere Datasets (Training und Test)import pandas as pdpoker_train = pd.read_csv("C:/Users/elihe/Documents/Studium Master/WS 19 und 20/Softwareprojekt/poker-hand-training-true.data", header = None, names= ['Farbe K1', 'Rang K1', 'Farbe K2', 'Rang K2', 'Farbe K3', 'Rang K3', 'Farbe K4', 'Rang K4', 'Farbe K5', 'Rang K5', 'Poker-Hand'])poker_test = pd.read_csv("C:/Users/elihe/Documents/Studium Master/WS 19 und 20/Softwareprojekt/poker-hand-testing.data", header = None, names= ['Farbe K1', 'Rang K1', 'Farbe K2', 'Rang K2', 'Farbe K3', 'Rang K3', 'Farbe K4', 'Rang K4', 'Farbe K5', 'Rang K5', 'Poker-Hand'])# Umwandlung der Outputsfrom sklearn.preprocessing import OneHotEncoder# Trainings- und Testset in Input und Output verwandelnX_tr = poker_train.iloc[:, 0:10].valuesy_tr = poker_train.iloc[:, 10:11].valuesX_te = poker_test.iloc[:, 0:10].valuesy_te = poker_test.iloc[:, 10:11].valuesencode = OneHotEncoder()y_tr = encode.fit_transform(y_tr).toarray()y_te = encode.fit_transform(y_te).toarray()# Skalierungfrom sklearn.preprocessing import StandardScalersc = StandardScaler()X_tr = sc.fit_transform(X_tr)X_te = sc.transform(X_te)# Kürzen der Datasets aufgrund der Rechenzeit# train_test_split unnötigX_train = X_tr[:5000]y_train = y_tr[:5000]X_test = X_te[:5000]y_test = y_te[:5000]# NN mit Keras erstellenimport kerasfrom keras.models import Sequentialfrom keras.layers import Dense# Schritt für Schritt Layer hinzufügennen = Sequential()# Input Layer: 10 Features als Input, 5 Units für den Hidden Layernen.add(Dense(512, input_dim = 10, activation = 'sigmoid'))nen.add(Dense(512, activation = 'sigmoid'))# Output Layer: eine Unit, erhält 5 Inputs vom Hidden Layer und 10 Outputs (für jeden möglichen Ausgang)nen.add(Dense(10, activation = 'softmax'))# Kompilierenfrom keras.optimizers import RMSprop# Loss-Funktion und Optimizer wählen# Loss gibt den Unterschied zwischen Vorhersage und wahrem Wert an, sollte sinken# Optimizer ist Methode, gibt an, wie die Gewichte im NN verändert werden müssen, sodass die Loss-Funktion fälltnen.compile(loss='binary_crossentropy', optimizer=RMSprop(0.001), metrics=['accuracy'])# batch_size = Anzahl an Samples pro Batch, Batch = teile Dataset auf# epochs = ein ganzes(!) Dataset geht einmal durch das NNnen_fit = nen.fit(X_train, y_train,epochs=30, batch_size=15, verbose=1, validation_split = 0.2, shuffle = False)from sklearn.metrics import confusion_matrixnp.set_printoptions(suppress = True)y_vorh = nen.predict(X_test)y_vorh = np.argmax(y_vorh, axis =1)y_test = np.argmax(y_test, axis = 1)confmat = confusion_matrix(y_test ,y_vorh)print(confmat)
我得到的输出只有8个,但我希望有10个,因为我的输出范围是0到9:
[[2155 359 0 0 0 0 0 0] [1525 562 0 0 0 0 0 0] [ 153 91 0 0 0 0 0 0] [ 57 54 0 0 0 0 0 0] [ 8 11 0 0 0 0 0 0] [ 10 2 0 0 0 0 0 0] [ 2 7 0 0 0 0 0 0] [ 1 3 0 0 0 0 0 0]]
问题出在哪里?我该如何解决这个问题?
回答:
问题应该出在这些行上:
# Kürzen der Datasets aufgrund der Rechenzeit# train_test_split unnötigX_train = X_tr[:5000]y_train = y_tr[:5000]X_test = X_te[:5000]y_test = y_te[:5000]
你在这里排除了训练和测试数据的一部分,这看起来是不必要的。这很可能排除了测试集中的两个类别,因此只创建了一个包含8个类别的混淆矩阵。我期望去掉[:5000]
会解决这个意外的情况。