我使用sklearn中的MLPClassifier构建了一个神经网络来预测赛马的结果。然而,有时当我使用predict_proba()函数来预测每匹马获胜的可能性时,我发现总概率并不等于1。有时可能是0.8xx或1.2xxx或1.1xxx等,最坏的情况可能是2.5xx或0.3xxx等。
无论我如何调整模型,这种情况仍然会发生在一些预测中。此外,我在将数据输入模型之前进行了MinMaxScaler处理。
rdx = rdx.fillna(value=-999) #-999表示缺失数据x = np.array(rdx) #rdx是数据的特征y = np.array(rdy) #rdy是数据的标签# 缩放特征scaler = MinMaxScaler()scaler.fit(x)x = scaler.transform(x)# 构建网络mlp = MLPClassifier( activation='relu',alpha=1e-4,hidden_layer_sizes=(20,20), random_state=1,max_iter=1000,verbose=10,learning_rate_init=.1)mlp.fit(x, y)
特征 (rdx):
标签 (rdy):
结果:在每个红色框中,是每场比赛中所有马的可能性。但这些可能性总和并不等于一。有时情况会更糟,例如3.5或0.5等。
我该怎么做来防止这种情况发生?
回答:
我认为问题在于你如何构建标签。你是在检查每匹马赢的概率。这些概率不需要总和为1。
y_train和y_test的形状分别是(60000,)和(40000,)。
但是,如果你将y_train和y_test转换为独热编码向量(就像你数据中的那样),然后在转换后的标签上训练一个新的MLP模型,那么你会发现你得到的概率总和不会等于1。
我已经修改了上述链接中引用的例子来展示我的意思:
import matplotlib.pyplot as pltfrom sklearn.datasets import fetch_openmlfrom sklearn.neural_network import MLPClassifierfrom sklearn.preprocessing import OneHotEncoder# 从 https://www.openml.org/d/554 加载数据X, y = fetch_openml('mnist_784', version=1, return_X_y=True)X = X / 255.# 重新缩放数据,使用传统的训练/测试分割X_train, X_test = X[:60000], X[60000:]y_train, y_test = y[:60000], y[60000:]# mlp = MLPClassifier(hidden_layer_sizes=(100, 100), max_iter=400, alpha=1e-4,# solver='sgd', verbose=10, tol=1e-4, random_state=1)mlp = MLPClassifier(hidden_layer_sizes=(50,), max_iter=10, alpha=1e-4, solver='sgd', verbose=None, tol=1e-4, random_state=1, learning_rate_init=.1)mlp.fit(X_train, y_train)print(y_train.shape)print(mlp.predict_proba(X_test[:10]).sum(axis=1))enc = OneHotEncoder(handle_unknown='ignore')enc.fit(y_train.reshape(-1, 1))y_train_transformed = enc.transform(y_train.reshape(-1, 1)).toarray()y_test_transformed = enc.transform(y_test.reshape(-1, 1)).toarray()# mlp = MLPClassifier(hidden_layer_sizes=(100, 100), max_iter=400, alpha=1e-4,# solver='sgd', verbose=10, tol=1e-4, random_state=1)mlp_new = MLPClassifier(hidden_layer_sizes=(50,), max_iter=10, alpha=1e-4, solver='sgd', verbose=None, tol=1e-4, random_state=1, learning_rate_init=.1)mlp_new.fit(X_train, y_train_transformed)print(y_train_transformed.shape)print(mlp_new.predict_proba(X_test[:10]).sum(axis=1))