晚上好,
我想用tf2和Gradient Tape函数实现一个简单的回归问题的示例代码。使用Model.fit()时,模型能够正常学习,但使用GradientTape时,尽管有所动作,但损失值与model.fit()相比几乎没有变化。以下是我的示例代码和结果。我找不到问题所在。
model_opt = tf.keras.optimizers.Adam() loss_fn = tf.keras.losses.MeanSquaredError()with tf.GradientTape() as tape: y = model(X, training=True) loss_value = loss_fn(y_true, y)grads = tape.gradient(loss_value, model.trainable_variables)model_opt.apply_gradients(zip(grads, model.trainable_variables))#结果:42.4743380626580942.6397367222607836.68739736017858638.74484432471752636.59080452300609...
以下是使用model.fit()的常规情况
model.compile(optimizer=tf.keras.optimizers.Adam(),loss=tf.keras.losses.MSE,metrics="mse")...model.fit(X,y_true,verbose=0)#结果[40.97759069299212][28.04145720307729][17.643483147375473][7.575242056454791][5.83682193867299]
准确度应该大致相同,但看起来它根本没有学习。输入X是一个张量,y_true也是张量。
编辑 用于测试
回答:
原始发布者看到的损失值差异是由于在model.fit
和tf.GradientTape
训练循环中使用了不同的批量大小造成的。如果model.fit
的batch_size
关键字参数未指定,将使用32的批量大小。在tf.GradientTape
训练循环中,批量大小等于训练集中样本的数量(即314)。
要解决这个问题,需要在训练循环中实现批处理。一种方法是使用tf.data
API,如下所示。
loss_fn = tf.keras.losses.MeanSquaredError()for i in range(0,EPOCHS): epoch_losses = [] for x_batch, y_batch in tf.data.Dataset.from_tensor_slices((X, y_true)).batch(32): with tf.GradientTape() as tape: y = model_g(x_batch, training=True) loss_value = loss_fn(y_batch, y) epoch_losses.append(loss_value.numpy()) grads = tape.gradient(loss_value, model_g.trainable_variables) opt_g.apply_gradients(zip(grads, model_g.trainable_variables)) print(np.mean(loss_value))
另外请注意,model.fit
会在每次迭代时对数据进行洗牌,而自定义训练循环不会(这需要由开发者实现)。