为什么逻辑回归使用乘法而不是加法来处理误差矩阵?

这是一个非常基础的问题,但我一直找不到足够的理由来说服自己。为什么逻辑回归的似然函数 l(w) 必须使用乘法而不是加法呢?


回答:

你的问题不仅仅局限于逻辑回归的联合似然。你是在问为什么我们用乘法而不是加法来表示联合概率分布。有两点需要注意:

  1. 当我们假设随机变量是独立时,这一点适用。否则,我们需要使用概率的链式法则来计算条件概率。你可以查看维基百科以获取更多信息。

  2. 我们使用乘法是因为联合分布就是这样定义的。这里有一个简单的例子:

假设我们有两个概率分布:

X = 1, 2, 3, 每个概率为1/3Y = 0或1, 每个概率为1/2

我们想要计算联合似然函数,L(X=x,Y=y),即X取值xY取值y的概率。

例如,L(X=1,Y=0) = P(X=1) * P(Y=0) = 1/6。写成P(X=1) + P(Y=0) = 1/3 + 1/2 = 5/6是没有意义的。

现在,在最大似然估计中,我们只关心某些参数theta的那些值,这些值最大化似然函数。在这种情况下,我们知道如果theta最大化L(X=x,Y=y),那么同样的theta也会最大化log L(X=x,Y=y)。这就是你可能会看到概率加法发挥作用的地方。

因此我们可以取log P(X=x,Y=y) = log P(X=x) + log P(Y=y)

简而言之

这可以总结为“联合概率代表一个AND”。当XY独立时,P(X AND Y) = P(X,Y) = P(X)P(Y)。不要与P(X OR Y) = P(X) + P(Y) - P(X,Y)混淆。

希望这对你有帮助。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注