在caffe中测试回归网络

我正在尝试使用Alexnet来计算图像中的对象数量。

目前,我的图像中每张图包含1、2、3或4个对象。为了初步检查,每个类别我有10张图像。例如,在训练集中我有:

image  labelimage1  1image2  1image3  1...image39 4image40 4

我使用imagenet创建脚本为这个数据集创建了一个lmdb文件,成功地将我的图像集转换为lmdb。Alexnet作为一个例子,通过引入EuclideanLoss层而不是Softmax层,被转换为一个用于学习图像中对象数量的回归模型。正如许多人建议的,网络的其余部分保持不变。

然而,尽管做了上述所有工作,当我运行模型时,在测试阶段我得到的输出始终为零(如下所示)。它没有学到任何东西。然而,训练损失在每次迭代中持续下降。

我不明白我犯了什么错误。有人能指导我为什么预测值总是0吗?以及我如何在测试阶段检查回归值,以便检查有多少样本是正确的,以及每张图像的值是多少?

测试数据集的预测值和实际标签如下所示:

I0928 17:52:45.585160 18302 solver.cpp:243] Iteration 1880, loss = 0.60498I0928 17:52:45.585212 18302 solver.cpp:259]     Train net output #0: loss = 0.60498 (* 1 = 0.60498 loss)I0928 17:52:45.585225 18302 solver.cpp:592] Iteration 1880, lr = 1e-06I0928 17:52:48.397922 18302 solver.cpp:347] Iteration 1900, Testing net (#0)I0928 17:52:48.499543 18302 accuracy_layer.cpp:88] Predicted_Value: 0 Actual Label: 1I0928 17:52:48.499641 18302 accuracy_layer.cpp:88] Predicted_Value: 0 Actual Label: 2I0928 17:52:48.499660 18302 accuracy_layer.cpp:88] Predicted_Value: 0 Actual Label: 3I0928 17:52:48.499681 18302 accuracy_layer.cpp:88] Predicted_Value: 0 Actual Label: 4...

注意:我还创建了hdf5格式的文件,以便拥有浮点标签,即1.0、2.0、3.0和4.0。然而,当我将数据层更改为HDF5类型时,我无法像在Alexnet中使用lmdb层那样进行数据增强的裁剪,以及归一化。我使用了”https://github.com/nikogamulin/caffe-utils/blob/master/hdf5/demo.m“上提供的脚本来处理hdf5数据,并按照他的步骤将其用于我的模型中。

我已经更新了最后几层,如下所示:

layer {   name: "fc8reg"   type: "InnerProduct"   bottom: "fc7"   top: "fc8reg"   param {    lr_mult: 1    decay_mult: 1   }   param {     lr_mult: 2     decay_mult: 0   }   inner_product_param {   num_output: 1   weight_filler {       type: "gaussian"       std: 0.01   }   bias_filler {       type: "constant"       value: 0   }   } } layer {   name: "accuracy"   type: "Accuracy"   bottom: "fc8reg"   bottom: "label"   top: "accuracy"   include {     phase: TEST   } } layer {   name: "loss"   type: "EuclideanLoss"   bottom: "fc8reg"   bottom: "label"   top: "loss" }

回答:

不论你的网络是否发散,你明显犯的一个错误是,你不应该使用Accuracy层来测试回归网络。它仅用于测试由SoftmaxWithLoss层训练的分类网络。

事实上,给定一个网络的图像,网络中的Accuracy层总是会对其输入数组(这里是bottom: "fc8reg")进行排序,并默认选择数组中最大值的索引作为预测标签。

由于fc8reg层中的num_output == 1accuracy层总是会将输入图像的预测标签预测为索引0,正如你所看到的。

最后,你可以使用EuclideanLoss层来测试你的回归网络。这个类似的问题也可能给你一些提示。


如果你要在训练后打印并计算回归值,并计算回归网络的准确率,你可以简单地编写一个RegressionAccuracy层,像这个一样。

或者,如果你的目标标签只有4个离散值{1,2,3,4},你仍然可以为你的任务训练一个分类网络。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注