我修改了 MNIST 示例,并用我的三个图像类别进行训练,得到的准确率为91%。然而,当我使用部署 prototxt 文件和标签文件修改C++ 示例,并尝试在一些图像上进行测试时,无论我输入什么图像,它都返回第二个类别(1个圆圈)的预测,概率为1.0,即使是训练集中使用的图像也是如此。我尝试了十几张图像,结果始终预测为同一类别。
为了澄清,在我修改的 C++ 示例中,我确实对要预测的图像进行了缩放,就像训练阶段对图像进行的缩放一样:
img.convertTo(img, CV_32FC1);img = img * 0.00390625;
如果这样做是正确的,那么我怀疑我在deploy_arch.prototxt文件中计算概率的输出层是否出了问题。
回答:
我认为你在分类时忘记了缩放输入图像,正如在 train_test.prototxt 文件的第11行所示。你可能需要在你的 C++ 代码中某个地方乘以这个因子,或者 alternatively 使用 Caffe 层来缩放输入(可以考虑使用 ELTWISE 或 POWER 层来实现)。
编辑:
在评论中的对话后,发现 classification.cpp 文件中错误地减去了图像均值,而在原始的训练/测试流程中并没有减去图像均值。