我已经用批量大小为10训练了一个卷积神经网络。然而,在测试时,我希望单独预测每个数据集的分类,而不是批量进行,这会导致错误:
Assign requires shapes of both tensors to match. lhs shape= [1,3] rhs shape= [10,3]
我理解10指的是batch_size
,而3是我要分类的类别数。
我们不能用批次训练然后单独测试吗?
更新:
训练阶段:
batch_size=10classes=3#vlimit是某个常数:训练和测试阶段相同X = tf.placeholder(tf.float32, [batch_size,vlimit ], name='X_placeholder')Y = tf.placeholder(tf.int32, [batch_size, classes], name='Y_placeholder')w = tf.Variable(tf.random_normal(shape=[vlimit, classes], stddev=0.01), name='weights')b = tf.Variable(tf.ones([batch_size,classes]), name="bias")logits = tf.matmul(X, w) + bentropy = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=Y, name='loss')loss = tf.reduce_mean(entropy)optimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss)
测试阶段:
batch_size=1classes=3X = tf.placeholder(tf.float32, [batch_size,vlimit ], name='X_placeholder')Y = tf.placeholder(tf.int32, [batch_size, classes], name='Y_placeholder')w = tf.Variable(tf.random_normal(shape=[vlimit, classes], stddev=0.01), name='weights')b = tf.Variable(tf.ones([batch_size,classes]), name="bias")logits = tf.matmul(X, w) + bentropy = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=Y, name='loss')loss = tf.reduce_mean(entropy)optimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss)
回答:
当你定义你的占位符时,使用:
X = tf.placeholder(tf.float32, [None, vlimit ], name='X_placeholder')Y = tf.placeholder(tf.int32, [None, classes], name='Y_placeholder')...
替代你的训练和测试阶段的定义(实际上,你不需要为测试阶段重新定义这些)。同时,将你的偏置定义为:
b = tf.Variable(tf.ones([classes]), name="bias")
否则,你将为批次中的每个样本训练一个单独的偏置,这不是你想要的。
TensorFlow应该会自动沿着输入的第一个维度展开,并识别其为批次大小,因此在训练时你可以输入批次大小为10的数据,而在测试时你可以输入单个样本(或批次大小为100或其他任何大小)。