作为TF 2.0教程的一部分,我尝试使用TensorFlow中的回调函数,使模型在达到特定准确率或损失值时停止训练。在这个Colab中提供的示例运行良好。我尝试在本地使用Pycharm(带有tf gpu conda环境)运行类似的示例,但回调函数根本没有执行,一直运行到最后一个epoch。没有任何错误,代码看起来也相同。
from tensorflow.keras.models import Sequentialfrom tensorflow.keras.layers import Dense, Flattenfrom matplotlib import pyplot as pltfrom tensorflow.keras.callbacks import Callbackclass MyCallback(Callback): def on_epochs_end(self, epoch, logs={}): if(logs.get('accuracy') > 0.9): print("\n Training stopping now. accuracy reached 90 !") self.model.stop_training = Truecallback = MyCallback()# Input data(training_data, training_labels), (testing_data, testing_labels) = fashion_mnist.load_data()training_data = training_data / 255.0testing_data = testing_data / 255.0plt.imshow(training_data[0], cmap='gray')# Networkmodel = Sequential([ Flatten(input_shape=(28, 28)), Dense(units=128, activation='relu'), Dense(units=10, activation='softmax')])model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])model.fit(training_data, training_labels, epochs=25, callbacks=[callback])
我在查找解决方案时参考了不同的示例,我遇到了如下语句:
– activation='relu'
– activation=tf.nn.relu
– activation=tf.keras.activation.relu
哪个是正确的使用方式?错误是否由于导入不正确引起的?
如果有人能提供一些提示,将会非常有帮助。
回答:
错误是由于您的回调类中拼写错误引起的。在on_epoch_end
函数的定义中,您拼写错误为on_epochs_end
。除此之外,一切都是正确的。
class MyCallback(Callback): #def on_epochs_end(self, epoch, logs={}): # 应该是epoch(不是epochs) def on_epoch_end(self, epoch, logs={}): if(logs.get('accuracy') > 0.9): print("\n Training stopping now. accuracy reached 90 !") self.model.stop_training = True
完整代码可参考这里。