我有三组观测数据,分别是Y
、T
和X
。我想研究两个模型的预测值之间的差异。第一个模型是学习g
,使得Y=g(T, X)
。第二个模型是学习L
和f
,使得Y=L(T)f(X)
。使用PyTorch包或TensorFlow包学习第一个模型对我来说没有问题。然而,我不确定如何学习L
和f
。在使用PyTorch包时,我可以设置两个具有不同隐藏层和输入的前馈MLP。对于简洁起见,我定义了一个前馈MLP类如下:
class Feedforward(t.nn.Module): # 前馈神经网络的定义 # 基本定义 def __init__(self, input_size, hidden_size): super(Feedforward, self).__init__() self.input_size = input_size self.hidden_size = hidden_size self.fc1 = t.nn.Linear(self.input_size, self.hidden_size) self.relu = t.nn.ReLU() self.fc2 = t.nn.Linear(self.hidden_size, 1) self.sigmoid = t.nn.Sigmoid() # 高级定义 def forward(self, x): hidden = self.fc1(x) relu = self.relu(hidden) output = self.fc2(relu) output = self.sigmoid(output) return output
假设L=Feedforward(2,10)
和f=Feedforward(3,9)
。据我所知,我只能学习L
或f
中的一个,但不能同时学习两者。是否有可能使用Y
、T
和X
同时学习L
和f
?
回答:
我可能遗漏了什么,但我认为你可以这样做:
L = Feedforward(2,10)f = Feedforward(3,9)L_opt = Adam(L.parameters(), lr=...)f_opt = Adam(f.parameters(), lr=...)for (x,t,y) in dataset: L.zero_grad() f.zero_grad() y_pred = L(t)*f(x) loss = (y-y_pred)**2 loss.backward() L_opt.step() f_opt.step()
你也可以将它们融合成一个单一模型:
class ProductModel(t.nn.Module): def __init__(self, L, f): self.L = L self.f = f def forward(self, x,t): return self.L(t)*self.f(x)
然后像训练g
一样训练这个模型