如何在TensorFlow v2.0中正确应用梯度

我试图重现一个之前基于TensorFlow v1.x的神经传输教程,但使用TensorFlow v2.0。由于某些原因,我无法使用Adam优化器应用梯度,我认为这是由于某种数据格式问题。源代码相当大,所以我尽量只提供最相关的代码行,但如果有人需要完整代码,我会在这里添加。

这是优化器

    opt = tf.optimizers.Adam(learning_rate = 5, beta_1 = 0.99, epsilon = 1e-1)

当我尝试使用以下代码对初始变量应用梯度时

    opt.apply_gradients(zip(grads, init_image))

我得到了错误

!opt.apply_gradients(zip(grads, init_image))*** TypeError: zip argument #2 must support iteration

这些是zip的参数:

init_image<tf.Variable 'Variable:0' shape=(1, 345, 512, 3) dtype=float32, numpy=array([[[[...]]]], dtype=float32)>grads<tf.Tensor: shape=(1, 345, 512, 3), dtype=float32, numpy=array([[[[...]]]], dtype=float32)>

如您所见,形状与应有的形状相同,numpy中的值是一些真实值,而不是nans或类似的东西。

梯度是通过以下方式计算的:

    with tf.GradientTape() as tape:          ...computing all_loss...    total_loss = all_loss[0]    grads = tape.gradient(total_loss, init_image)

请提供一些建议。


回答:

这个问题应该很容易解决——问题在于您需要将梯度/变量打包到列表中,以便zip能够工作。因此,只需使用

opt.apply_gradients(zip([grads], [init_image]))

添加一些解释——您的代码在急切模式下可能不会崩溃,但可能会产生错误的结果(需要测试这一点)。如果使用tf.function,它肯定会崩溃(从您提供的代码中不清楚您是否使用了这个),因为在图模式下张量是不可迭代的。通过将它们包装在列表中,zip现在可以迭代这些列表(尽管只有一个元素)。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注