我尝试使用TensorFlow估计器来处理MNIST数据集。不知为何,它一直显示我的n_classes
被设置为1,尽管实际上我设置的是10!
import tensorflow as tfimport numpy as npfrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data/",one_hot=True)feature_columns = [tf.feature_column.numeric_column("x", shape=[784])]# 构建一个具有10、20、10个单元的3层DNN。classifier = tf.estimator.DNNClassifier(feature_columns=feature_columns, hidden_units=[500, 500, 500], n_classes=10, model_dir="/tmp/MT")for i in range(100000): xdata, ydata = mnist.train.next_batch(500) train_input_fn = tf.estimator.inputs.numpy_input_fn( x={"x":xdata}, y=ydata, num_epochs=None, shuffle=True) classifier.train(input_fn=train_input_fn, steps=2000)# 定义测试输入test_input_fn = tf.estimator.inputs.numpy_input_fn( x= {"x":mnist.test.images}, y= mnist.test.labels, num_epochs=1, shuffle=False)# 评估准确率accuracy_score = classifier.evaluate(input_fn=test_input_fn)["accuracy"]print("\n测试准确率: {0:f}\n".format(accuracy_score))
错误:
ValueError: 标签形状不匹配。分类器配置为n_classes=1。收到的却是10。建议修复:检查您传递给估计器的n_classes参数和/或标签的形状。程序以退出码1结束
回答:
这是一个好问题。tf.estimator.DNNClassifier
使用的是tf.losses.sparse_softmax_cross_entropy
损失,换句话说,它期望使用序数编码,而不是独热编码(文档中没有找到相关说明,只能在源代码中找到):
labels
必须是一个密集的Tensor
,其形状与logits
匹配,即[D0, D1, ... DN, 1]
。如果给定了label_vocabulary
,labels
必须是一个字符串Tensor
,其值来自词汇表。如果未给出label_vocabulary
,labels
必须是一个整数Tensor
,其值指定类别索引。
您应该使用one_hot=False
读取数据,并且将标签转换为int32类型以使其正常工作:
y=ydata.astype(np.int32)