我想比较以下几种CNN在两个不同的大型图像数据集上的性能表现。目标是衡量两张未在训练过程中出现过的图像之间的相似度。我有2个GPU和16个CPU核心可用。
- 三元组CNN(输入:三张图像,标签:由位置编码)
- 孪生CNN(输入:两张图像,标签:一个二进制标签)
- 用于特征学习的Softmax CNN(输入:一张图像,标签:一个整数标签)
对于Softmax,我可以将数据存储为二进制格式(顺序存储标签和图像)。然后使用TensorFlow读取器读取这些数据。
如果要对三元组和孪生网络使用相同的方法,我需要提前生成组合并将它们存储到磁盘上。这将导致创建文件所需的时间和磁盘空间的巨大开销。如何在线生成这些组合呢?
另一种简单的方法是使用feed_dict,但这会很慢。因此,如果可以并行运行我用于feed_dict的相同函数,并在最后一步将结果转换为TensorFlow张量,问题就解决了。但据我所知,这种转换并不存在,因此必须首先使用TensorFlow读取器读取文件,并使用TensorFlow方法完成整个过程。这是正确的吗?
回答:
简短回答是使用numpy在线生成对/三元组,无需将其转换为张量,因为feed_dict参数已经接受numpy数组了。
最佳方法是使用tf.nn.embedding_lookup()
从已存在的批次中结合itertools
来创建对的索引,但对于一个非最优的简单解决方案,你可以查看我在我的GitHub仓库中的gen_batches_siamese.py脚本。我在其中重新实现了caffe的孪生网络示例。显然,这会比使用TensorFlow队列效率低,但我建议先尝试这个基准方案,然后再转向纯TensorFlow解决方案。