Tensor shape in tensorflow

什么是tensorflow中张量的形状?它代表什么?

我读了这篇文章,我理解的是张量的形状是张量每个维度上的元素数量,但在第一个代码片段中:

[[1., 2., 3.], [4., 5., 6.]] # 一个rank 2的张量;一个形状为[2, 3]的矩阵

它说形状是2和3,但在张量的第一个维度上有三个元素而不是2,这是为什么?


回答:

形状是维度的大小。

[[1., 2., 3.], [4., 5., 6.]] # 一个rank 2的张量;一个形状为[2, 3]的矩阵

因为它有2行和3列。所以这不是关于元素,而是每个维度的大小。因此,rank是维度的数量,而形状是维度的大小。

如果你看下一个例子

[[[1., 2., 3.]], [[7., 8., 9.]]] # 一个rank 3的张量,形状为[2, 1, 3]

它有2行,在这个维度上有1组元素,以及3列。

这个资源可能会有所帮助 https://www.tensorflow.org/versions/r1.1/programmers_guide/dims_typeshttps://www.gsrikar.com/2017/06/what-is-tensor-rank-and-tensor-shape.html

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注