我刚开始学习TensorFlow,但卡在了这个占位符声明的问题上。定义占位符x时,以下两种方式有什么具体区别:
x = tf.placeholder(tf.float32, [None, seq_size])
与这种方式相比:
x = tf.placeholder(tf.float32, [None, seq_size, 1])
我从矩阵的角度来思考。比如说,假设变量x被输入10个值,并且seq_size是3 – 第一种方式会得到10×3的矩阵,第二种方式会得到10x3x1的矩阵。为什么TensorFlow会以不同的方式处理它们?
回答:
为了形状验证的目的,TensorFlow会以不同的方式处理它们。例如,与大小为3×4的矩阵进行矩阵乘法,在第二种版本中是不可能的,因为维度1和3不匹配。TensorFlow会在图构建时检测到这一点。
此外,从代码可读性的角度来看,如果将来这个维度可能会改变,保留额外的维度1可能有助于整体理解。例如,如果你的数据点是一元时间序列,使用
x = tf.placeholder(tf.float32, [None, seq_size, 1])
会使你更容易将结果扩展到维度d>1
的多元时间序列,
x = tf.placeholder(tf.float32, [None, seq_size, d])
因为所有的代码已经考虑到了这个额外的维度。