我正在尝试对Alexnet进行微调,以便用于多标签回归任务。为此,我将原本用于图像分类任务的输出1000个标签的最后一层替换为输出6个标签的层,这样我可以得到6个浮点数。我按照这里提到的方法替换了最后一层。
我的训练数据采用h5
格式准备,data
的形状为(11000, 3, 544, 1024),labels
的形状为(11000, 1, 6)。在使用Caffe库重新训练Alexnet的权重时,我遇到了以下错误:
I1013 10:50:49.759560 3107 net.cpp:139] Memory required for data: 950676640I1013 10:50:49.759562 3107 layer_factory.hpp:77] Creating layer accuracy_retrainI1013 10:50:49.759567 3107 net.cpp:86] Creating Layer accuracy_retrainI1013 10:50:49.759568 3107 net.cpp:408] accuracy_retrain <- fc8_fc8_retrain_0_split_0I1013 10:50:49.759572 3107 net.cpp:408] accuracy_retrain <- label_data_1_split_0I1013 10:50:49.759575 3107 net.cpp:382] accuracy_retrain -> accuracyF1013 10:50:49.759587 3107 accuracy_layer.cpp:31] Check failed: outer_num_ * inner_num_ == bottom[1]->count() (10 vs. 60) Number of labels must match number of predictions; e.g., if label axis == 1 and prediction shape is (N, C, H, W), label count (number of labels) must be N*H*W, with integer values in {0, 1, ..., C-1}.
我的训练和测试阶段的批次大小均为10
。错误出现在测试阶段,可能是在accuracy
层中,完整错误日志在这里。我不确定为什么会出现这个问题,可能是我的label
形状不对。任何在这方面的帮助将不胜感激。
回答:
我解决了这个问题。看起来accuracy
层仅用于分类任务,结合SoftmaxWithLoss
层使用。正如这个回答中所述,可以使用EuclideanLoss
来测试回归网络。