### 回调函数导致的ValueError

几个月来代码一直运行正常,但在我做了一些操作后不知为何出了问题,无法恢复原状。

def bi_LSTM_model(X_train, y_train, X_test, y_test, num_classes, loss,batch_size=68, units=128, learning_rate=0.005,epochs=20, dropout=0.2, recurrent_dropout=0.2):        class myCallback(tf.keras.callbacks.Callback):        def on_epoch_end(self, epoch, logs={}):            if (logs.get('acc') > 0.90):                print("\nReached 90% accuracy so cancelling training!")                self.model.stop_training = True                    callbacks = myCallback()    model = tf.keras.models.Sequential()    model.add(Masking(mask_value=0.0, input_shape=(X_train.shape[1], X_train.shape[2])))    model.add(Bidirectional(LSTM(units, dropout=dropout, recurrent_dropout=recurrent_dropout)))    model.add(Dense(num_classes, activation='softmax'))    model.compile(loss=loss,                  optimizer=adamopt,                  metrics=['accuracy'])    history = model.fit(X_train, y_train,                        batch_size=batch_size,                        epochs=epochs,                        validation_data=(X_test, y_test),                        verbose=1,                        callbacks=[callbacks])    score, acc = model.evaluate(X_test, y_test,                                batch_size=batch_size)    yhat = model.predict(X_test)    return history, yhatdef duo_bi_LSTM_model(X_train, y_train, X_test, y_test, num_classes, loss,batch_size=68, units=128, learning_rate=0.005,epochs=20, dropout=0.2, recurrent_dropout=0.2):        class myCallback(tf.keras.callbacks.Callback):        def on_epoch_end(self, epoch, logs={}):            if (logs.get('acc') > 0.90):                print("\nReached 90% accuracy so cancelling training!")                self.model.stop_training = True                         callbacks = myCallback()                model = tf.keras.models.Sequential()    model.add(Masking(mask_value=0.0, input_shape=(X_train.shape[1], X_train.shape[2])))    model.add(Bidirectional(        LSTM(units, dropout=dropout, recurrent_dropout=recurrent_dropout, return_sequences=True)))    model.add(Bidirectional(LSTM(units, dropout=dropout, recurrent_dropout=recurrent_dropout)))    model.add(Dense(num_classes, activation='softmax'))    model.compile(loss=loss,                  optimizer=adamopt,                  metrics=['accuracy'])    history = model.fit(X_train, y_train,                        batch_size=batch_size,                        epochs=epochs,                        validation_data=(X_test, y_test),                        verbose=1,                        callbacks=[callbacks])    score, acc = model.evaluate(X_test, y_test,                                batch_size=batch_size)    yhat = model.predict(X_test)    return history, yhat

基本上,我定义了两个模型,每当第二个模型运行时就会出现错误。

顺便提一下,我在模型之间使用了tf.keras.backend.clear_session()

ValueError: Tensor("Adam/bidirectional/forward_lstm/kernel/m:0", shape=(), dtype=resource) must be from the same graph as Tensor("bidirectional/forward_lstm/kernel:0", shape=(), dtype=resource).

我对代码唯一做的修改是尝试将callback类从两个模型中提取出来,放在它们之前,以减少代码的冗余性。


回答:

问题不在于回调函数。错误出现的原因是你将同一个优化器传递给了两个不同的模型,这是不可能的,因为它们是两个不同的计算图。

尝试在定义模型的函数中,在model.compile()调用之前定义优化器。

Related Posts

如何对SVC进行超参数调优?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

如何在初始训练后向模型添加训练数据?

我想在我的scikit-learn模型已经训练完成后再…

使用Google Cloud Function并行运行带有不同用户参数的相同训练作业

我正在寻找一种方法来并行运行带有不同用户参数的相同训练…

加载Keras模型,TypeError: ‘module’ object is not callable

我已经在StackOverflow上搜索并阅读了文档,…

在计算KNN填补方法中特定列中NaN值的”距离平均值”时

当我从头开始实现KNN填补方法来处理缺失数据时,我遇到…

使用巨大的S3 CSV文件或直接从预处理的关系型或NoSQL数据库获取数据的机器学习训练/测试工作

已关闭。此问题需要更多细节或更清晰的说明。目前不接受回…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注