Keras Dense层输入未被展平

这是我的测试代码:

from keras import layersinput1 = layers.Input((2,3))output = layers.Dense(4)(input1)print(output)

输出结果是:

<tf.Tensor 'dense_2/add:0' shape=(?, 2, 4) dtype=float32>

但这是怎么回事?

文档中提到:

注意: 如果输入层的秩大于2,则在与核进行初始点积之前会先将其展平。

而输出结果是重塑的?


回答:

目前,与文档中所述相反,Dense是应用在输入张量的最后一个轴上:

与文档相反,我们实际上并没有将其展平。它是独立应用在最后一个轴上的。

换句话说,如果一个具有m个单元的Dense层被应用在形状为(n_dim1, n_dim2, ..., n_dimk)的输入张量上,它的输出形状将是(n_dim1, n_dim2, ..., m)


附注: 这使得TimeDistributed(Dense(...))Dense(...)彼此等效。


另一个附注: 请注意,这会产生共享权重的效果。例如,考虑这个玩具网络:

model = Sequential()model.add(Dense(10, input_shape=(20, 5)))model.summary()

模型摘要:

_________________________________________________________________Layer (type)                 Output Shape              Param #   =================================================================dense_1 (Dense)              (None, 20, 10)            60        =================================================================Total params: 60Trainable params: 60Non-trainable params: 0_________________________________________________________________

如你所见,Dense层只有60个参数。这是怎么回事? Dense层中的每个单元都与输入中每行的5个元素连接,并且使用相同的权重,因此10 * 5 + 10 (每个单元的偏置参数) = 60


更新。 这里是上述示例的视觉插图:

在Keras中对具有两个或更多维度的输入应用Dense层的视觉插图

Related Posts

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

Pytorch DataLoader内存未释放

我想在Google Colab上使用PyTorch实现…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注