TensorFlow: 为什么在从TFRecord文件解析TF-example时需要重塑非稀疏元素一次?

在TensorFlow的文档中,在GitHub上,有以下代码:

# 只重塑非稀疏元素一次:
for k in self._keys_to_features:
  v = self._keys_to_features[k]
  if isinstance(v, parsing_ops.FixedLenFeature):
    example[k] = array_ops.reshape(example[k], v.shape)

我想知道为什么在从TFRecord文件解析后需要重塑一个FixedLenFeature张量。

实际上,FixedLenFeature和VarLenFeature之间有什么区别,它们与张量有什么关联?我在这个案例中加载的是图像,那么为什么它们都被归类为FixedLenFeature?VarLenFeature的一个例子是什么?


回答:

张量在磁盘上以Example协议缓冲格式存储(TFRecord文件是Examples的集合)。.proto文件中的文档对此描述得相当好,但基本点是,张量条目以行主序存储,没有形状信息,因此在读取张量时必须提供这些信息。请注意,存储在内存中的张量情况类似:形状信息是单独保存的,仅仅重塑一个张量只会更改元数据(另一方面,像转置这样的操作可能会很昂贵)。

VarLenFeatures是像句子这样的序列,很难像常规张量那样批处理在一起,因为生成的形状会是参差不齐的。parse_example文档中有一些很好的例子。图像在长度上是固定的,如果你加载一批图像,它们都会有相同的形状(例如,它们都是32×32像素,因此一批10个图像可以有10x32x32的形状)。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注