我正在学习 TensorFlow,我的目标是为我的需求实现多层感知机。我查看了带有多层感知机实现的 MNIST 教程,除了以下内容之外,其余部分我都理解了:
_, c = sess.run([optimizer, cost], feed_dict={x: batch_x, y: batch_y})
我猜,x
本身就是一张图片(28*28 像素,因此输入是 784 个神经元),而 y
是一个标签,是一个 1×10 的数组:
x = tf.placeholder("float", [None, n_input])y = tf.placeholder("float", [None, n_classes])
他们输入的是整个批次(这些是数据点和标签的包)!TensorFlow 如何解释这个“批次”输入?它是如何更新权重的:是每个批次中的每个元素更新后同时更新,还是在整个批次运行后更新?
如果我需要输入一个数字(input_shape = [1,1]
)并输出四个数字(output_shape = [1,4]
),我应该如何更改 tf.placeholders
以及应该以什么形式将它们输入会话?
-
当我问 TensorFlow 如何解释它时,我想知道 TensorFlow 如何将批次分成单个元素。例如,批次是一个二维数组,对吗?它在哪个方向上分割数组?或者它使用矩阵运算而不分割任何东西?
-
当我问我应该如何输入我的数据时,我想知道它应该是样本在行上,特征在列上的二维数组,还是可以是一个二维列表。
当我将我的浮点 numpy 数组 X_train
输入到 x
时,它是这样的:
x = tf.placeholder("float", [1, n_input])
我收到了一个错误:
ValueError: Cannot feed value of shape (1, 18) for Tensor 'Placeholder_10:0', which has shape '(1, 1)'
看起来我需要将我的数据也创建为 Tensor?
当我尝试 [18×1] 时:
Cannot feed value of shape (18, 1) for Tensor 'Placeholder_12:0', which has shape '(1, 1)'
回答:
他们输入的是整个批次(这些是数据点和标签的包)!
是的,这就是通常训练神经网络的方式(由于一些很好的数学特性,它结合了两种世界的最佳效果——一方面比 SGD 更好的梯度近似,另一方面比完整的 GD 收敛更快)。
TensorFlow 如何解释这个“批次”输入?
它根据您图中的操作来“解释”。您图中可能有某个地方使用了reduce mean,它计算批次的平均值,从而导致这种“解释”。
它如何更新权重:1. 在批次中的每个元素更新后同时更新?2. 在整个批次运行后更新?
就像之前的回答一样——批次并没有什么“魔法”,它只是另一个维度,神经网络的每个内部操作对于批次数据都是明确定义的,因此最后仍然是单一更新。因为您使用了 reduce mean 操作(或者可能是 reduce sum?),您是根据“小”梯度的平均值(或如果是 reduce sum,则是总和)来更新的。同样——您可以控制它(直到聚合行为为止,除非您在图中引入 while 循环,否则您不能强制它执行每样本更新)。
如果我需要输入一个数字(input_shape = [1,1])并输出四个数字(output_shape = [1,4]),我应该如何更改 tf.placeholders 以及应该以什么形式将它们输入会话?谢谢!!
只需设置变量,n_input=1
和 n_classes=4
,然后像以前一样输入您的数据,作为 [batch, n_input] 和 [batch, n_classes] 数组(在您的情况下,batch=1,如果您说的“1×1”是指“一个维度为 1 的样本”,因为您的编辑开始表明您实际上确实有一个批次,并且您说的 1×1 是指一维输入)。
编辑:1. 当我问 TensorFlow 如何解释它时,我想知道 TensorFlow 如何将批次分成单个元素。例如,批次是一个二维数组,对吗?它在哪个方向上分割数组?或者它使用矩阵运算而不分割任何东西?2. 当我问我应该如何输入我的数据时,我想知道它应该是样本在行上,特征在列上的二维数组,还是可以是一个二维列表。
它不分割任何东西。它只是一个矩阵,每个操作对于矩阵也是明确定义的。通常您将示例放在行上,因此在第一维度上,这就是 [batch, n_inputs] 所表达的——您有 batch
行,每行有 n_inputs
列。但同样——这并没有什么特别之处,您也可以创建一个图,它接受按列的批次,如果您真的需要的话。