为什么U-net的上采样层中没有激活函数?

U-net中,所有层都有激活函数,但上采样层(使用转置卷积完成)似乎没有激活函数。这样做比添加激活函数更有效率的原因是什么?

enter image description here

据我所知,激活函数提供非线性。因此,这个问题实际上是,保持转置卷积的线性而保持常规卷积的非线性有什么好处?在这些层中添加激活函数难道不是最好的选择吗?

我唯一的其他直觉是,或许他们试图让上采样尽可能接近常规的形态插值方法。


回答:

我认为你的解释是正确的:他们只是试图让过程与使用经典插值进行的上采样保持相似,因为这样可以更好地解释架构(同时仍然允许网络有灵活性,可以学习上采样的最佳权重)。一般来说,如果你想增加更多的非线性,你可以在那个层之后加入任何你想要的激活函数(如ReLU),但就我个人经验而言,我认为性能不会有太大变化。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注