在TensorFlow的文档中,在GitHub上,有以下代码:
# 只重塑非稀疏元素一次:
for k in self._keys_to_features:
v = self._keys_to_features[k]
if isinstance(v, parsing_ops.FixedLenFeature):
example[k] = array_ops.reshape(example[k], v.shape)
我想知道为什么在从TFRecord文件解析后需要重塑一个FixedLenFeature张量。
实际上,FixedLenFeature和VarLenFeature之间有什么区别,它们与张量有什么关联?我在这个案例中加载的是图像,那么为什么它们都被归类为FixedLenFeature?VarLenFeature的一个例子是什么?
回答:
张量在磁盘上以Example协议缓冲格式存储(TFRecord文件是Examples的集合)。.proto
文件中的文档对此描述得相当好,但基本点是,张量条目以行主序存储,没有形状信息,因此在读取张量时必须提供这些信息。请注意,存储在内存中的张量情况类似:形状信息是单独保存的,仅仅重塑一个张量只会更改元数据(另一方面,像转置这样的操作可能会很昂贵)。
VarLenFeatures是像句子这样的序列,很难像常规张量那样批处理在一起,因为生成的形状会是参差不齐的。parse_example文档中有一些很好的例子。图像在长度上是固定的,如果你加载一批图像,它们都会有相同的形状(例如,它们都是32×32像素,因此一批10个图像可以有10x32x32的形状)。