我还不清楚metrics
的具体含义(如下面代码所示)。它们到底在评估什么?为什么我们需要在model
中定义它们?为什么一个模型可以有多个metrics?更重要的是,这背后的机制是什么?任何科学参考文献也将受到欢迎。
model.compile(loss='mean_squared_error', optimizer='sgd', metrics=['mae', 'acc'])
回答:
为了理解metrics
是什么,最好先了解loss
函数的概念。神经网络主要通过梯度方法进行训练,这是一个通过迭代降低loss
函数的过程。
loss
函数被设计成具有两个关键特性 – 首先,数值越小,模型对数据的拟合效果就越好;其次,它必须是可微分的。了解这一点后,我们可以完全定义metric
的含义:它是一个函数,根据预测值和来自样本的真实值,为您提供一个标量度量,用于衡量模型对数据的“适应度”。因此,正如您所看到的,loss
函数是一种metric,但反之不一定成立。为了理解这些差异,让我们看看metrics
使用的最常见示例:
-
使用不可微分的函数测量网络的性能:例如,准确率是不可微分的(甚至不是连续的),因此您无法直接针对它来优化网络。然而,您可以使用它来选择准确率最高的模型。
-
当您的最终loss是多个loss函数的组合时,获取不同loss函数的值:假设您的loss包含一个正则化项,用于衡量权重与
0
的差异,还有一个项用于衡量模型的适应度。在这种情况下,您可以使用metrics
来单独跟踪模型适应度在各个epoch中的变化情况。 -
跟踪您不想直接优化模型的度量:假设您正在解决一个多维回归问题,您主要关注
mse
,但同时您也对解决方案的cosine-distance
随时间的变化感兴趣。在这种情况下,最好使用metrics
。
我希望以上解释清楚了metrics的用途,以及为什么您可以在一个模型中使用多个metrics。现在,让我们简单谈谈它们在keras
中的使用机制。在训练过程中计算它们有两种方式:
-
使用编译时定义的
metrics
:这是您直接询问的内容。在这种情况下,keras
为您定义的每个metric定义一个单独的张量,以便在训练时计算。这通常会使计算更快,但这需要额外的编译,并且metrics应该使用keras.backend
函数来定义。 -
使用
keras.callback
:您可以使用Callbacks
来计算您的metrics。由于每个回调都有一个默认的model
属性,您可以在训练时使用model.predict
或模型参数来计算各种metrics。此外,这使得可以不仅按epoch计算,还可以按批次或训练过程计算。这会导致计算速度变慢,并且逻辑更加复杂 – 因为您需要自己定义metrics。
您可以在这里找到可用的metrics列表,以及如何定义您自己的metrics的示例。