我想计算神经网络模型的确定性/置信度(参见我的深度模型不知道什么)——当神经网络告诉我一张图片表示“8”时,我想知道它的确定程度。我的模型有99%的把握是“8”,还是只有51%的把握是“8”,但也有可能是“6”?有些数字相当模糊,我想知道模型对于哪些图片只是在“抛硬币”。
我找到了一些关于这个的理论文章,但我很难将其转化为代码。如果我理解正确的话,我应该在测试时多次评估一张图片,同时“杀死”不同的神经元(使用dropout),然后…?
我在MNIST数据集上工作,我运行以下模型:
from keras.models import Sequentialfrom keras.layers import Dense, Activation, Conv2D, Flatten, Dropoutmodel = Sequential()model.add(Conv2D(128, kernel_size=(7, 7), activation='relu', input_shape=(28, 28, 1,)))model.add(Dropout(0.20))model.add(Conv2D(64, (3, 3), activation='relu'))model.add(Dropout(0.20))model.add(Flatten())model.add(Dense(units=64, activation='relu'))model.add(Dropout(0.25))model.add(Dense(units=10, activation='softmax'))model.summary()model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])model.fit(train_data, train_labels, batch_size=100, epochs=30, validation_data=(test_data, test_labels,))
我应该如何使用这个模型进行预测,以便同时获得其预测的确定性? 我希望能看到一些实际的例子(最好是用Keras,但其他任何例子也可以)。
为了澄清,我正在寻找一个使用Yurin Gal概述的方法获取确定性的例子(或者解释为什么其他方法能得到更好的结果)。
回答:
如果你想实现使用dropout方法来测量不确定性,你应该做以下几步:
-
实现一个在测试时也应用dropout的函数:
-
使用此函数作为不确定性预测器,例如如下方式:
def predict_with_uncertainty(f, x, n_iter=10): result = numpy.zeros((n_iter,) + x.shape) for iter in range(n_iter): result[iter] = f(x, 1) prediction = result.mean(axis=0) uncertainty = result.var(axis=0) return prediction, uncertainty
当然,你可以使用任何不同的函数来计算不确定性。