我有一个包含178个元素的数据集,每个元素包含13个特征和1个标签。标签是以独热编码数组的形式存储的。我的训练数据集由158个元素组成。
这是我的模型结构:
x = tf.placeholder(tf.float32, [None,training_data.shape[1]])y_ = tf.placeholder(tf.float32, [None,training_data_labels.shape[1]])node_1 = 300node_2 = 300node_3 = 300out_n = 3 #1W1 = tf.Variable(tf.random_normal([training_data.shape[1], node_1]))B1 = tf.Variable(tf.random_normal([node_1]))y1 = tf.add(tf.matmul(x,W1),B1)y1 = tf.nn.relu(y1)#2W2 = tf.Variable(tf.random_normal([node_1, node_2]))B2 = tf.Variable(tf.random_normal([node_2]))y2 = tf.add(tf.matmul(y1,W2),B2)y2 = tf.nn.relu(y2)#3W3 = tf.Variable(tf.random_normal([node_2, node_3]))B3 = tf.Variable(tf.random_normal([node_3]))y3 = tf.add(tf.matmul(y2,W3),B3)y3 = tf.nn.relu(y3)#outputW4 = tf.Variable(tf.random_normal([node_3, out_n]))B4 = tf.Variable(tf.random_normal([out_n]))y4 = tf.add(tf.matmul(y3,W4),B4)y = tf.nn.softmax(y4)loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y))optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(loss)with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for i in range(200): sess.run(optimizer,feed_dict={x:training_data, y_:training_data_labels}) correct = tf.equal(tf.argmax(y_, 1), tf.argmax(y, 1)) accuracy = tf.reduce_mean(tf.cast(correct, 'float')) print('Accuracy:',accuracy.eval({x:eval_data, y_:eval_data_labels}))
但准确率非常低,我尝试将迭代次数从200增加到更高的数字,但准确率仍然很低。
我可以做些什么来改善结果?
回答:
问题在于你对y4
进行了softmax操作,然后将其传递给tf.nn.softmax_cross_entropy_with_logits
。这种错误相当常见,以至于在softmax_cross_entropy_with_logits的文档中实际上有一条关于此的说明:
警告:此操作期望未缩放的logits,因为它在内部对logits进行softmax操作以提高效率。请勿将此操作与softmax的输出一起调用,因为这会产生错误的结果。
你的代码的其他部分看起来没问题,所以只需将y4
替换为y
,并删除y = tf.nn.softmax(y4)
即可。