我需要有人帮助我解释下面的代码。我对TensorFlow还比较陌生,但我在代码中已经标出了具体的问题
x、b、W和y变量分别代表什么?
# 模型输入和输出x = tf.placeholder(tf.float32) # 这是输入linear_model = W * x + b # 这是线性模型操作y = tf.placeholder(tf.float32) # 这是我们试图预测的输出吗?
为什么代码在GradientDescentOptimizer函数中传递了0.01的参数值?
# 损失 - 测量当前模型与提供数据之间的差距loss = tf.reduce_sum(tf.square(linear_model - y)) # 平方和# 优化器optimizer = tf.train.GradientDescentOptimizer(0.01) # 为什么我们传递值'0.01'train = optimizer.minimize(loss)
这里的y_train代表什么?
# 训练数据x_train = [1, 2, 3, 4] # 我们已知的输入变量y_train = [0, -1, -2, -3] # # 训练循环init = tf.global_variables_initializer() # init是初始化所有全局变量的TensorFlow子图的句柄。在我们调用sess.run之前,变量是未初始化的sess = tf.Session() # Session封装了TensorFlow运行时的控制和状态。它用于评估节点,我们必须在会话中运行计算图sess.run(init) # 重置值为错误的for i in range(1000): sess.run(train, {x: x_train, y: y_train})
这里的变量curr_W和curr_b代表什么?
# 评估训练准确性# 为什么变量W和b代表什么?curr_W, curr_b, curr_loss = sess.run([W, b, loss], {x: x_train, y: y_train})print("W: %s b: %s loss: %s"%(curr_W, curr_b, curr_loss))
代码示例来自TensorFlow网站: https://www.tensorflow.org/get_started/get_started#complete_program
回答:
x、b、W和y变量分别代表什么?
这些是模型将要使用的符号变量 – 输入、输出和神经网络参数。x
和y
是数据,它们不会改变,这就是它们被定义为tf.placeholder
的原因。W
和b
是可学习的参数(在TF术语中称为可训练)。初始值不如这些参数的维度重要(事实上,不完全是,但这是一个高级话题)。在这个例子中,W
和b
都是一维的,尽管通常W
是一个矩阵,b
是一个向量。
所有定义的变量一起形成了所谓的计算图。
为什么代码在GradientDescentOptimizer函数中传递了0.01的参数值?
这是学习率。简单来说,这是引擎在优化目标函数loss
时迈出的步长。学习率通常接近0,但具体值取决于许多因素。实际上,这是研究人员手动尝试的常见超参数之一。0.01
似乎是一个好的起点,因为在许多情况下它足够好。
这里的y_train代表什么?
x_train
和y_train
是训练数据,第一个是输入,第二个是预期标签。在这种情况下,你告诉输入1
应该导致结果0
,输入2
导致-1
,依此类推。希望网络能够从这4个例子中学会“减一”操作(旁注:这个神经网络只是一个完美拟合的线性模型)。这被称为监督学习。
这里的变量curr_W和curr_b代表什么?
首先要注意,curr_W
和curr_b
是普通的Python变量,而W
和b
是符号变量。符号变量定义了你的计算是如何组织的,它们在训练过程中会取不同的值。curr_W
和curr_b
只是这些值在某些迭代后的一个值。基本上,你拍摄了模型的一个快照并打印出来,以查看神经网络学到了什么。结果值-1
和1
(几乎)意味着神经网络成功地学习了一个线性变换。