在解决二元分类问题时,我认为在Caffe中有两种可能的方法。
第一种方法是使用一个输出单元的"SigmoidCrossEntropyLossLayer"
。
另一种方法是使用两个输出单元的"SoftmaxWithLossLayer"
。我的问题是这两种方法有什么区别?
我应该使用哪一种?
非常感谢!
回答:
如果你稍微研究一下数学,你可以将"Sigmoid"
层的预测类概率“复制”为类1的0.5*x_i
和类0的-0.5*x_i
,那么"SoftmaxWithLoss"
层相当于对单一输出预测x_i
的"SigmoindWithCrossEntropy"
。
所以我认为可以说,这两种方法在预测二元输出时可以被视为等效的。