二进制对数损失是否基于y的值排除方程的一部分?

假设对数损失的方程为:

logLoss=−(1/N)*∑_{i=1}^N (yi(log(pi))+(1−yi)log(1−pi))

其中 N 是样本数量,yi...yiN 是因变量的实际值,pi...piN 是逻辑回归的预测概率

我的理解是:

如果 yi = 0,那么第一部分 yi(logpi) = 0

反之,如果 yi = 1,那么第二部分 (1−yi)log(1−pi) = 0

因此,根据 y 的值,方程的一部分会被排除。我的理解正确吗?

我的最终目标是理解如何解释对数损失的结果。


回答:

是的,你的理解方向是正确的。记住 p_i=P(y_i=1),基本的想法是损失函数的定义方式需要惩罚那些预测与实际标签不匹配的样本(例如,当 y_i=1p_i 较低时,由 yi(logpi) 部分处理,或者当 y_i=0p_i 较高时,由 (1-yi)log(1-pi) 部分处理),同时,对于预测与实际标签匹配的样本,损失函数不应给予过多的惩罚(例如,当 y_i=1p_i 较高,或者当 y_i=0p_i 较低时)。

逻辑回归的损失函数(交叉熵)恰好满足上述损失函数的期望属性,如下图所示。

enter image description here

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注