我对这个方法感到非常困惑,特别是当我发现这个令人费解的语句时:
output.set_shape(tensor_shape.TensorShape([None]).concatenate(shape))
以下是一些对该方法的描述性注释:
该操作会沿第0维度将队列元素的组件张量拼接起来,形成一个单一的组件张量。如果队列尚未关闭,则出队元组中的所有组件在第0维度上的大小将为'n'。
在形状的第0维度上指定一个None(我认为可能是n?)显得非常奇怪,这似乎与描述中的“大小’n’”相矛盾。这导致了我的程序中出现形状错误,尽管我已经找到了错误的位置,但我还是无法理解原因。
你能告诉我为什么在这里使用TensorShape([None])
吗?
回答:
QueueBase.dequeue_up_to(n)
方法从队列中返回最多(“最多”)n
个元素的批次。相比之下,QueueBase.dequeue_many(n)
方法从队列中返回确切n
个元素的批次。
这两个操作在队列关闭之前行为相同。在这之后,不能再向队列中添加元素,因此这些操作将排空剩余的元素。如果剩余元素的数量(num_remaining
)不是n
的整数倍,QueueBase.dequeue_up_to(n)
将返回最后一个较小的批次,包含num_remaining % n
个元素。相比之下,QueueBase.dequeue_many(n)
不会返回这些最后的几个元素,因为它无法形成一个正好n
个元素的批次。
由于QueueBase.dequeue_up_to(n)
可以返回不同大小的批次(即n
和num_remaining % n
),这些大小在静态情况下是未知的(因为num_remaining
取决于运行时发生的入队操作的数量),因此其返回值的第一维度是Dimension(None)
。Dimension(None)
通常用于表示在不同执行之间可能变化的形状。