我正在为MNIST数据集开发一个分类器。当我运行下面的代码时,在loss = loss_function(output, y)
这一行出现了错误 ” ‘Softmax’ 对象没有属性 ‘log_softmax’ “。我还没有找到解决这个问题的方法。如果您能提供解决方案的建议,我将不胜感激。谢谢。
import matplotlib.pyplot as pltimport torch import torch.nn as nnimport torch.nn.functional as F import torch.optim as optimfrom torch.utils.data import DataLoader, Dataset, TensorDatasetimport torchvisionimport torchvision.transforms as transformsimport numpy as npdevice = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")batch_size = 512# Torchvision的图像转换将图像转换为张量并使用均值和标准差进行归一化transformer = transforms.Compose([transforms.ToTensor(), transforms.Normalize(mean=(0.1307,), std=(0.3081,))])data_train = DataLoader(torchvision.datasets.MNIST('Data/data/mnist', download=True, train=True, transform=transformer), batch_size=batch_size, drop_last=False, shuffle=True)data_test = DataLoader(torchvision.datasets.MNIST('Data/data/mnist', download=True, train=False, transform=transformer), batch_size=batch_size, drop_last=False, shuffle=True)class neural_nw(nn.Module): def __init__(self): super(neural_nw, self).__init__() self.fc1 = nn.Linear(784, 128, True) self.fc2 = nn.Linear(128, 128, True) self.fc3 = nn.Linear(128, 10, True) def forward(self, x): output = torch.sigmoid(self.fc1(x)) output = torch.sigmoid(self.fc2(output)) output = nn.Softmax(self.fc3(output)) return output MLP = neural_nw()loss_function = nn.CrossEntropyLoss()optimiser = optim.Adam(MLP.parameters(), lr = 0.01)Epochs = 50for epoch in range(Epochs): for X, y in data_train: X = X.view(X.shape[0], -1) optimiser.zero_grad() output = MLP.forward(X) loss = loss_function(output, y) loss.backward() optimiser.step()
回答:
nn.Softmax
定义了一个模块,nn.Modules
被定义为Python类并具有属性,例如,nn.LSTM
模块将有一些内部属性,如self.hidden_size
。另一方面,F.softmax
定义了操作,需要传入所有参数(包括权重和偏置)。通常,模块会在forward
方法中隐式调用其函数式对应部分。
这解释了为什么使用F.softmax
而不是nn.Softmax
可以解决您的问题。