理解Tensorflow MNIST教程 – 输入x是列矩阵还是列矩阵数组?

我正在按照Tensorflow MNIST教程进行学习。

在阅读理论/直觉部分时,我理解输入x是一个列矩阵。

事实上,在描述softmax时,x被展示为一个列矩阵:

softmax直觉,x明显显示为列矩阵

然而,在tensorflow中,x的声明如下:

x = tf.placeholder(tf.float32, [None, 784])

我理解这表示x是一个可变长度的数组(None),其中每个元素都是一个大小为784的列矩阵。

尽管x被声明为列矩阵的数组,但在使用时却像是单个列矩阵:

y = tf.nn.softmax(tf.matmul(x, W) + b)

在示例中,Wb的声明符合直觉,分别是形状为[784, 10][10]的变量,这也是合理的。

我的问题是:

  1. Tensorflow是否会自动对x中的每个列矩阵执行softmax操作?

  2. 我假设[None, value]意味着一个可变大小的数组,每个元素都是大小为value的数组,这种理解正确吗?还是[None, value]也可能仅仅表示一个大小为value的数组(不包含在容器数组中)?

  3. 如何正确地将理论描述中x作为列向量的部分与实现中x作为列矩阵数组的部分联系起来?

感谢您的帮助!


回答:

直觉上是针对单个输入样本的(这就是为什么你看到一个列向量)。然而,实际操作中,训练是使用mini-batch进行的,这包含了多个输入样本(取决于batch_size)。

x = tf.placeholder(tf.float32, [None, 784])

这一行创建了一个维度为? x 784的矩阵,其中?表示批次大小。从某种意义上说,列向量变成了这个新矩阵的行。

由于我们将列向量转换成了行,我们交换了xW的乘法顺序。这就是为什么你的W的维度是784 x 10,而b的维度是10,它将应用于所有元素。第一次乘法后,x*W的维度为? x 10。相同的元素b被添加到x*W的每一行中。所以如果我的x*W的第一行为[1,2,3,4,5,6,7,8,9,0],而b[1,1,1,1,1,1,1,1,1,1],结果的第一行将是[2,3,4,5,6,7,8,9,10,1]。如果你觉得这很难理解,尝试取W*x的转置。

关于你的问题,

Tensorflow是否会自动对x中的每个列矩阵执行softmax操作?

是的,在你的上下文中。TensorFlow对维度1的所有元素(以上我解释的所有行)应用softmax。所以你的softmax结果也将具有维度? x 10

我假设[None, value]意味着一个可变大小的数组,每个元素都是大小为value的数组,这种理解正确吗?还是[None, value]也可能仅仅表示一个大小为value的数组(不包含在容器数组中)?

是的,前者是正确的解释。还请参考我上面的?矩阵类比。

如何正确地将理论描述中x作为列向量的部分与实现中x作为列矩阵数组的部分联系起来?

我个人将此解释为W*x的转置。详细来说,假设x是一组列向量,[x1 x2 x3 x4 x5 ...],维度为784 x ?,其中?是批次大小。假设W的维度为10 x 784。如果你对每个列应用W,你将得到[W*x1 W*x2 W*x3...]或是一组维度为10的列向量,总矩阵维度为10 x ?

将整个操作转置,trans(W*x) = trans(x)*trans(W),这些就是你代码中的xW

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注