RMSE loss for multi output regression problem in PyTorch

我正在使用PyTorch训练一个CNN架构来解决一个回归问题,我的输出是一个包含20个值的张量。我计划使用RMSE作为模型的损失函数,并尝试使用PyTorch的nn.MSELoss(),然后使用torch.sqrt()来计算其平方根,但得到结果后我感到困惑。我将尽力解释原因。显然,对于批量大小bs,我的输出张量的维度将是[bs, 20]。我尝试实现自己的RMSE函数:

   def loss_function (predicted_x , target ):        loss = torch.sum(torch.square(predicted_x - target) , axis= 1)/(predicted_x.size()[1]) #通过除以输出数量(在我这里是20)来计算所有平方的均值        loss = torch.sqrt(loss)        loss = torch.sum(loss)/predicted_x.size()[0]  #通过批量大小进行平均        return loss

但是,我的loss_function()的输出与PyTorch使用nn.MSELoss()实现的方式不同。我不确定是我的实现有误,还是我错误地使用了nn.MSELoss()


回答:

MSE损失是错误平方的均值。你在计算MSE后取了平方根,因此无法将你的损失函数的输出与PyTorch的nn.MSELoss()函数的输出进行比较——它们计算的是不同的值。

然而,你可以使用nn.MSELoss()来创建你自己的RMSE损失函数,如下所示:

loss_fn = nn.MSELoss()RMSE_loss = torch.sqrt(loss_fn(prediction, target))RMSE_loss.backward()

希望这对你有帮助。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注