如何在Keras中计算训练准确率的平均值?

我正在尝试计算用Keras编写的模型的训练准确率的平均值,我的模型有200个epoch。所以最后我想将每个epoch的训练准确率与前一个相加,然后除以200..

这是我的代码

num = 200total_sum = 0for n in range(num):    avg_train=np.array(model.fit(x_train,y_train, epochs=200, batch_size=64, verbose=2))    total_sum = avg_train + total_sumavg = total_sum/numscore=model.evaluate(x_test, y_test, verbose=2)print(score)print('the average is',avg)

我试图将每个准确率存储在一个numpy数组中,以便在求和操作中使用它,但它给我以下错误

Traceback (most recent call last):  File "G:\Master Implementation\MLPADAM.py", line 87, in <module>    total_sum = avg_train + total_sumTypeError: unsupported operand type(s) for +: 'History' and 'int' 

回答:

你的问题存在几个问题…

首先,你的代码将模型拟合200次,每次200个epoch,总共200*200 = 40,000个epoch。

此外,由于Keras中的model.fit是增量运行的,你循环中的每次model.fit调用都会从上次迭代停止的地方继续训练,因此实际上最后你确实会得到一个经过40,000个epoch拟合的模型。

假设这不是你想要做的,而是你只想得到训练期间的平均准确率,答案是使用model.fit返回的History对象;从model.fit文档中可以看到:

返回值

一个History对象。其History.history属性记录了在连续epoch中的训练损失值和度量值,以及验证损失值和验证度量值(如果适用)。

因此,这里是一个使用MNIST数据集和仅5个epoch的快速演示(并且忘记for循环!):

# 你的模型定义# 你的model.compile()batch_size = 128epochs = 5hist = model.fit(x_train, y_train,      batch_size=batch_size,      epochs=epochs,      verbose=1,      validation_data=(x_test, y_test)  # 可选      )# 输出Train on 60000 samples, validate on 10000 samplesEpoch 1/560000/60000 [==============================] - 76s - loss: 0.3367 - acc: 0.8974 - val_loss: 0.0765 - val_acc: 0.9742Epoch 2/560000/60000 [==============================] - 73s - loss: 0.1164 - acc: 0.9656 - val_loss: 0.0516 - val_acc: 0.9835Epoch 3/560000/60000 [==============================] - 74s - loss: 0.0866 - acc: 0.9741 - val_loss: 0.0411 - val_acc: 0.9863Epoch 4/560000/60000 [==============================] - 73s - loss: 0.0730 - acc: 0.9781 - val_loss: 0.0376 - val_acc: 0.9871Epoch 5/560000/60000 [==============================] - 73s - loss: 0.0639 - acc: 0.9810 - val_loss: 0.0354 - val_acc: 0.9881

hist.history是一个包含每个epoch的度量值的字典:

hist.history# 结果:{'acc': [0.8973833333969117,  0.9656000000635783,  0.9740500000317891,  0.9780500000635783,  0.9810333334604899], 'loss': [0.3367467244784037,  0.11638248273332914,  0.08664042545557023,  0.07301943883101146,  0.06391783343354861], 'val_acc': [0.9742, 0.9835, 0.9863, 0.9871, 0.9881], 'val_loss': [0.07650674062222243,  0.051606363496184346,  0.04107686730045825,  0.03761903735231608,  0.03537947320453823]}

要获取每个epoch的训练准确率:

hist.history['acc']# 结果:[0.8973833333969117, 0.9656000000635783, 0.9740500000317891, 0.9780500000635783, 0.9810333334604899]

平均值简单地计算为

np.mean(hist.history['acc']) # 假设已导入numpy为np# 0.9592233334032695

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注