我定义了一个新的caffe
层,包括new_layer.cpp
、new_layer.cu
、new_layer.hpp
以及caffe.proto
中的相关参数。当我训练模型时,它显示:
new_layer不需要反向计算
然而,我确实定义了backward_cpu
和backward_gpu
。我尝试将lr_mult
设置为非零值。但对于自定义层,我应该在哪里定义lr_mult
?除了这个方法,还有其他什么办法可以让我的自定义层执行反向传播吗?
回答:
你可以通过在net.prototxt
文件的开头设置
force_backward: true
来强制caffe进行反向传播。caffe的默认行为是仅在确定需要梯度时才计算反向传播。有时(特别是当有自定义层时)这种启发式方法并不准确。通过设置force_backward: true
,caffe将尽可能为模型中的所有层计算梯度。
请参阅caffe.proto
中的注释了解更多信息。
关于lr_mult
:它是层param
部分的一部分——这个部分在caffe.proto
中为所有层定义。因此,你只需在net.prototxt
中的层定义中添加这个条款:
force_backward: true # 不会有害...layer { name: "my_layer" type: "MyLayerType" bottom: "input" top: "output" my_layer_param { ... } param: { lr_mult: 1 } # 就是这里}
你可以在这里查看更多信息。