我是TensorFlow的新手。什么是特征列,它如何影响训练?
当我实现如下代码时,会创建一个作为特征列的数值列。我想了解它的用途。
feature_columns = [tf.feature_column.numeric_column("x", shape=[1])]estimator = tf.estimator.LinearRegressor(feature_columns=feature_columns)x_train = np.array([1., 2., 3., 4.])y_train = np.array([0., -1., -2., -3.])x_eval = np.array([2., 5., 8., 1.])y_eval = np.array([-1.01, -4.1, -7, 0.])input_fn = tf.estimator.inputs.numpy_input_fn( {"x": x_train}, y_train, batch_size=4, num_epochs=None, shuffle=True)train_input_fn = tf.estimator.inputs.numpy_input_fn({"x": x_train}, y_train, batch_size=4, num_epochs=1000, shuffle=False)eval_input_fn = tf.estimator.inputs.numpy_input_fn({"x": x_eval}, y_eval, batch_size=4, num_epochs=1000, shuffle=False)estimator.train(input_fn=input_fn, steps=10000)train_metrics = estimator.evaluate(input_fn=train_input_fn)eval_metrics = estimator.evaluate(input_fn=eval_input_fn)print("\n\ntrain metrics: %r"% train_metrics)print("eval metrics: %r"% eval_metrics)
回答:
根据我从特征列文档中所了解到的,它们似乎被用来将某种输入数据特征转换为可被回归或神经网络模型使用的连续变量。
例如,在回归分析中,如果我们有一个分类变量,通常会先将其转换为一组虚拟变量。我们可以使用tf.feature_column.indicator_column来进行这种转换。然后我们可以在我们的feed dict中直接输入分类数据,这种转换到虚拟变量的过程会在内部自动进行。
在numeric_column
的情况下,不需要这样的转换,因此这个类基本就像一个tf.placeholder
。