如果我再次训练模型,损失会减少还是会重置为初始损失?

    for iteration in range(NUM_ITERATIONS):        print()        print("="*50)        print("Iteration:",iteration)        model.fit(X,y,batch_size=BATCH_SIZE,epochs=NUM_EPOCH_ITERATION)        rand=np.random.randint(len(x_labels))        test="vikas n s "        print(test,end="")        for i in range(NUM_PREDICTION_PER_EPOCH):            Xtest=np.zeros((1,sqlen,nb_chars),dtype=np.bool)            for i,ch in enumerate(test):                Xtest[0,i,char2index[ch]]=1            pred=model.predict(Xtest)            temp=pred            pred=pred[0]            ypredict=index2char[np.argmax(pred)]            print(ypredict,end="")            test=test[1:]+ypredict

在这段代码中,每次迭代我都在训练模型。我的假设是,当我再次训练模型时,损失应该重置为初始损失或接近初始损失。但我发现损失是持续的。例如:如果初始损失是4,在第一次迭代的所有轮次后损失降至2。现在当我在下一次迭代中再次训练模型时,我期望损失从4开始。但实际上它是从2继续的。为什么会这样?


回答:

因为Keras的model.fit方法正是这样做的,即从模型当时的状态开始训练;因此,如果模型之前已经进行了一些训练,新一轮的fit确实是从那个点开始的。

如果你希望每次迭代都有一个新的训练会话(即“重置”你的模型),你应该将模型构建包装在一个便捷函数中,并在每次迭代的model.fit之前调用这个函数(或者当然也可以在每次迭代中包含整个模型构建代码…)。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注