什么是带填充的平均池化的期望行为?

最近我用pytorch训练了一个神经网络,其中包含一个带填充的平均池化层。我对其行为以及带填充的平均池化的定义感到困惑。

例如,如果我们有一个输入张量:

[[1, 2, 3], [4, 5, 6], [7, 8, 9]]

当填充为1且核大小为3时,第一个核的输入应该是:

 0, 0, 0 0, 1, 2 0, 4, 5

pytorch的输出是12/4 = 3(忽略填充的0),但我认为应该是12/9 = 1.333

谁能解释一下这个问题吗?

非常感谢。


回答:

你可以决定你的填充池化层的行为。
这就是为什么pytorch的平均池化(例如,nn.AvgPool2d)有一个可选参数count_include_pad=True
默认情况下(True),平均池化会先填充输入,然后将所有元素视为相同。在这种情况下,你的示例输出确实是1.33。
另一方面,如果你设置count_include_pad=False,池化层将忽略填充的元素,你的示例结果将是3。

Related Posts

神经网络反向传播代码不工作

我需要编写一个简单的由1个输出节点、1个包含3个节点的…

值错误:y 包含先前未见过的标签:

我使用了 决策树分类器,我想将我的 输入 作为 字符串…

使用不平衡数据集进行特征选择时遇到的问题

我正在使用不平衡数据集(54:38:7%)进行特征选择…

广义随机森林/因果森林在Python上的应用

我在寻找Python上的广义随机森林/因果森林算法,但…

如何用PyTorch仅用标量损失来训练神经网络?

假设我们有一个神经网络,我们希望它能根据输入预测三个值…

什么是RNN中间隐藏状态的良好用途?

我已经以三种不同的方式使用了RNN/LSTM: 多对多…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注