我有一个包含约10万行的训练数据文件,我在每个训练步骤上运行一个简单的tf.train.GradientDescentOptimizer
。这个设置基本上是直接从Tensorflow的MNIST示例中提取的。以下是代码重现:
x = tf.placeholder(tf.float32, [None, 21])W = tf.Variable(tf.zeros([21, 2]))b = tf.Variable(tf.zeros([2]))y = tf.nn.softmax(tf.matmul(x, W) + b)y_ = tf.placeholder(tf.float32, [None, 2])cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
由于我从文件中读取训练数据,我使用tf.train.string_input_producer
和tf.decode_csv
来读取csv文件的行,然后使用tf.train.shuffle_batch
创建批次并进行训练。
我对tf.train.shuffle_batch
的参数设置感到困惑。尽管我阅读了Tensorflow的文档,但我仍然不确定“最佳”的batch_size、capacity和min_after_dequeue值应该是什么。能有人帮助解释一下如何选择这些参数的合适值,或者提供一个我可以进一步学习的资源吗?谢谢–
这是API链接:https://www.tensorflow.org/versions/r0.9/api_docs/python/io_ops.html#shuffle_batch
回答:
关于使用多少线程有一些介绍,可以查看
https://www.tensorflow.org/versions/r0.9/how_tos/reading_data/index.html#batching
不幸的是,我认为对于批次大小没有简单的答案。一个网络的有效批次大小取决于网络的许多细节。在实践中,如果你关心最佳性能,你将需要进行大量的试错(可能从类似网络使用的值开始)。