在Tensorflow中,我计划构建一些模型,并根据训练数据的不同子集将其与其他基准模型进行比较。也就是说,我希望使用相同的数据子集来训练我的模型和基准模型。
在队列运行器和TFreaders的常规实现方式中(例如im2txt),这需要为每个选择的子集复制数据,在我的情况下,这将需要使用大量的磁盘空间。
如果能有一种方法让队列只获取指定ID子集中的样本,或者忽略不在给定ID子集中的样本,那就最好了。
如果我理解正确,忽略样本并非易事,因为这需要将来自不同读取的样本拼接成一个批次。
有没有人知道如何做到这一点?或者能建议一种替代方法,这种方法不需要将所有训练数据预加载到RAM中?
谢谢!
回答:
您可以将您的条件编码为tf.train.maybe_batch的keep_input
参数的一部分