为什么在TensorFlow的MNIST教程中,x变量张量被重塑为-1?

我正在学习TensorFlow教程

最初x被定义为

x = tf.placeholder(tf.float32, shape=[None, 784])

后来它重塑了x,我试图理解为什么这样做。

为了应用这一层,我们首先将x重塑为一个4维张量,第二和第三维度对应于图像的宽度和高度,最后一维度对应于颜色通道的数量。

x_image = tf.reshape(x, [-1,28,28,1])

在重塑向量中-1是什么意思,为什么x需要被重塑?


回答:

1) 在重塑向量中-1是什么意思

reshape的文档中可以看到:

如果shape的一个组成部分是特殊值-1,那么该维度的大小将被计算,以便总大小保持不变。特别是,形状为[-1]会展平为一维。shape中最多只能有一个组成部分为-1。

这是一个标准功能,在numpy中也有。基本上它的意思是 – 我没有时间计算所有维度,所以帮我推断一个。在你的例子中因为x * 28 * 28 * 1 = 784,所以你的-1 = 1

2) 为什么x需要被重塑

他们计划使用卷积进行图像分类。所以他们需要使用一些空间信息。目前数据是一维的。所以他们将其转换为四维。我不知道第四维的意义,因为在我看来他们可能只使用了(x, y, 颜色)。或者甚至(x, y)。尝试修改他们的重塑和卷积,你很可能会得到相似的准确率。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注