Caffe: 检查失败:outer_num_ * inner_num_ 必须等于 bottom[1]->count() (10 对比 60),标签数量必须与预测数量匹配

我正在尝试对Alexnet进行微调,以便用于多标签回归任务。为此,我将原本用于图像分类任务的输出1000个标签的最后一层替换为输出6个标签的层,这样我可以得到6个浮点数。我按照这里提到的方法替换了最后一层。

我的训练数据采用h5格式准备,data的形状为(11000, 3, 544, 1024),labels的形状为(11000, 1, 6)。在使用Caffe库重新训练Alexnet的权重时,我遇到了以下错误:

I1013 10:50:49.759560  3107 net.cpp:139] Memory required for data: 950676640I1013 10:50:49.759562  3107 layer_factory.hpp:77] Creating layer accuracy_retrainI1013 10:50:49.759567  3107 net.cpp:86] Creating Layer accuracy_retrainI1013 10:50:49.759568  3107 net.cpp:408] accuracy_retrain <- fc8_fc8_retrain_0_split_0I1013 10:50:49.759572  3107 net.cpp:408] accuracy_retrain <- label_data_1_split_0I1013 10:50:49.759575  3107 net.cpp:382] accuracy_retrain -> accuracyF1013 10:50:49.759587  3107 accuracy_layer.cpp:31] Check failed: outer_num_ * inner_num_ == bottom[1]->count() (10 vs. 60) Number of labels must match number of predictions; e.g., if label axis == 1 and prediction shape is (N, C, H, W), label count (number of labels) must be N*H*W, with integer values in {0, 1, ..., C-1}.

我的训练和测试阶段的批次大小均为10。错误出现在测试阶段,可能是在accuracy层中,完整错误日志在这里。我不确定为什么会出现这个问题,可能是我的label形状不对。任何在这方面的帮助将不胜感激。


回答:

我解决了这个问题。看起来accuracy层仅用于分类任务,结合SoftmaxWithLoss层使用。正如这个回答中所述,可以使用EuclideanLoss来测试回归网络。

Related Posts

关于k折交叉验证的直观问题

我在使用交叉验证检查预测能力时遇到了一些直观问题,我认…

调整numpy数组大小以使用sklearn的train_test_split函数?

我正在尝试使用sklearn中的test_train_…

如何转换二维张量和索引张量以便用于torch.nn.utils.rnn.pack_sequence

我有一组序列,格式如下: sequences = to…

模型预测值的含义是什么?

我在网上找到一个数字识别器的CNN模型并进行了训练,当…

锯齿张量作为LSTM的输入

了解锯齿张量以及如何在TensorFlow中使用它们。…

如何告诉SciKit的LinearRegression模型预测值不能小于零?

我有以下代码,尝试根据非价格基础特征来估值股票。 pr…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注