什么是tensorflow中张量的形状?它代表什么?
我读了这篇文章,我理解的是张量的形状是张量每个维度上的元素数量,但在第一个代码片段中:
[[1., 2., 3.], [4., 5., 6.]] # 一个rank 2的张量;一个形状为[2, 3]的矩阵
它说形状是2和3,但在张量的第一个维度上有三个元素而不是2,这是为什么?
回答:
形状是维度的大小。
[[1., 2., 3.], [4., 5., 6.]] # 一个rank 2的张量;一个形状为[2, 3]的矩阵
因为它有2行和3列。所以这不是关于元素,而是每个维度的大小。因此,rank是维度的数量,而形状是维度的大小。
如果你看下一个例子
[[[1., 2., 3.]], [[7., 8., 9.]]] # 一个rank 3的张量,形状为[2, 1, 3]
它有2行,在这个维度上有1组元素,以及3列。
这个资源可能会有所帮助 https://www.tensorflow.org/versions/r1.1/programmers_guide/dims_typeshttps://www.gsrikar.com/2017/06/what-is-tensor-rank-and-tensor-shape.html