for iteration in range(NUM_ITERATIONS): print() print("="*50) print("Iteration:",iteration) model.fit(X,y,batch_size=BATCH_SIZE,epochs=NUM_EPOCH_ITERATION) rand=np.random.randint(len(x_labels)) test="vikas n s " print(test,end="") for i in range(NUM_PREDICTION_PER_EPOCH): Xtest=np.zeros((1,sqlen,nb_chars),dtype=np.bool) for i,ch in enumerate(test): Xtest[0,i,char2index[ch]]=1 pred=model.predict(Xtest) temp=pred pred=pred[0] ypredict=index2char[np.argmax(pred)] print(ypredict,end="") test=test[1:]+ypredict
在这段代码中,每次迭代我都在训练模型。我的假设是,当我再次训练模型时,损失应该重置为初始损失或接近初始损失。但我发现损失是持续的。例如:如果初始损失是4,在第一次迭代的所有轮次后损失降至2。现在当我在下一次迭代中再次训练模型时,我期望损失从4开始。但实际上它是从2继续的。为什么会这样?
回答:
因为Keras的model.fit
方法正是这样做的,即从模型当时的状态开始训练;因此,如果模型之前已经进行了一些训练,新一轮的fit
确实是从那个点开始的。
如果你希望每次迭代都有一个新的训练会话(即“重置”你的模型),你应该将模型构建包装在一个便捷函数中,并在每次迭代的model.fit
之前调用这个函数(或者当然也可以在每次迭代中包含整个模型构建代码…)。