evaluate
函数的实际工作原理是什么,它具体返回什么?
以下是来自文档(来自tf.keras.models.Model
)的evaluate
函数接口定义。
evaluate( x=None, y=None, batch_size=None, verbose=1, sample_weight=None, steps=None, max_queue_size=10, workers=1, use_multiprocessing=False)
文档中提到,该函数在测试模式下返回模型的损失值和指标值。
这里有两个参数很重要:
batch_size:整数或None。每梯度更新的样本数。如果未指定,batch_size将默认为32。如果您的数据是符号张量、数据集、数据集迭代器、生成器或keras.utils.Sequence实例的形式(因为它们会生成批次),请不要指定batch_size。
steps:整数或None。在宣布评估轮次完成之前的总步骤数(样本批次)。默认值为None时会被忽略。
文档对我来说有点模糊。我不明白“如果您的数据是符号张量、数据集….”这句话中提到的数据集是什么意思。
在我的情况下,我的模型有多个输入,输入x
是一个numpy数组的列表。我的x看起来如下:
print(len(x)) returns 4print(x[0].shape) returns (128, 9, 16)
重要的是,这个数据集(在这个例子中是训练集)包含128个样本。
在这种情况下,我对如何调用evaluate函数感到非常困惑?我特别想知道应该如何设置batch_size和steps参数。
我可以按以下方式运行它:
方案1:
train_metrics = saved_model.evaluate(x = train_x, y = train_y, batch_size = None, steps = None)
或者我也可以按以下方式运行它:
方案2:
train_metrics = saved_model.evaluate(x = train_x, y = train_y, batch_size = 64, steps = None)
鉴于我上面描述的数据集格式,这两种方案有什么区别?我实际上期望看到相同的结果(特别是“损失”),因为evaluate函数应该只遍历一次给定的数据集,并返回整个数据集的结果。但情况并非如此。上述两种方案给出了截然不同的结果。
有谁清楚知道这两个调用之间的区别吗?
我还尝试检查了代码,但无法真正弄清楚这个细节..
回答:
我不明白“如果您的数据是符号张量、 数据集….”这句话中提到的 数据集 是什么意思
这里提到的数据集是tf.data.Dataset()
的一个实例。数据集已经定义了其batch_size
。我们使用以下方式定义它:
tf.data.Dataset.batch( batch_size )
因此,在Keras的evaluate
方法中不需要这个参数。
steps
参数是什么?
步骤大小是将总样本数除以批次大小。如果我有1000个样本和50的batch_size,那么步骤数将是20(1000 / 50)。您通常不需要输入steps
参数。
对于方案1:
批次大小设置为None。因此,将使用默认值32。因此,这里根据计算,步骤数将是4(128 / 32)。
对于方案2:
批次大小设置为64。因此,这里根据计算,步骤数将是2(128 / 64)。
方案之间的区别:
两种方案的批次大小分别为32和64。因此,损失和准确度的计算会有所不同。