我正在尝试使用随机梯度下降法,但我不确定为什么我的误差/损失没有减少。我从train
数据框中使用的数据是索引(每个序列)和结合亲和力,目标是预测结合亲和力。以下是数据框的头部看起来的样子:
在训练过程中,我对序列进行了一次性编码,并使用另一个矩阵计算得分,目标是使这个得分尽可能接近结合亲和力(对于任何给定的肽)。我如何计算得分以及我的训练循环在下面的代码中显示,但我认为不需要解释为什么我的误差无法减少。
#ONE-HOT ENCODING
AA=['A','R','N','D','C','Q','E','G','H','I','L','K','M','F','P','S','T','W','Y','V']
loc=['N','2','3','4','5','6','7','8','9','10','11','C']
aa = "ARNDCQEGHILKMFPSTWYV"
def p_one_hot(seq):
c2i = dict((c,i) for i,c in enumerate(aa))
int_encoded = [c2i[char] for char in seq]
onehot_encoded = list()
for value in int_encoded:
letter = [0 for _ in range(len(aa))]
letter[value] = 1
onehot_encoded.append(letter)
return(torch.Tensor(np.transpose(onehot_encoded)))
#INITALIZE TENSORS
a=Var(torch.randn(20,1),requires_grad=True) #initalize similarity matrix - random array of 20 numbers
freq_m=Var(torch.randn(12,20),requires_grad=True)
freq_m.data=(freq_m.data-freq_m.min().data)/(freq_m.max().data-freq_m.min().data)#0 to 1 scaling
optimizer = optim.SGD([torch.nn.Parameter(a), torch.nn.Parameter(freq_m)], lr=1e-6)
loss = nn.MSELoss()
#TRAINING LOOP
epochs = 100
for i in range(epochs):
#RANDOMLY SAMPLE DATA
train = all_seq.sample(frac=.03)
names = train.index.values.tolist()
affinities = train['binding_affinity']
print('Epoch: ' + str(i))
#forward pass
iteration_loss=[]
for j, seq in enumerate(names):
sm=torch.mm(a,a.t()) #make simalirity matrix square symmetric
freq_m.data=freq_m.data/freq_m.data.sum(1,keepdim=True) #sum of each row must be 1 (sum of probabilities of each amino acid at each position)
affin_score = affinities[j]
new_m = torch.mm(p_one_hot(seq), freq_m)
tss_m = new_m * sm
tss_score = tss_m.sum()
sms = sm
fms = freq_m
error = loss(tss_score, torch.FloatTensor(torch.Tensor([affin_score])))
iteration_loss.append(error.item())
optimizer.zero_grad()
error.backward()
optimizer.step()
mean = statistics.mean(iteration_loss)
stdev = statistics.stdev(iteration_loss)
print('Epoch Average Error: ' + str(mean) + '. Epoch Standard Deviation: ' + str(stdev))
iteration_loss.clear()
在每个周期结束后,我会打印出该周期所有误差的平均值以及标准差。每个周期大约运行45,000个序列。然而,在10个周期后,我仍然没有看到误差有任何改善,我不确定为什么。以下是我看到的输出:
有什么想法可以告诉我哪里做错了?我是PyTorch的新手,任何帮助都将不胜感激!谢谢!
回答:
事实证明,将优化器参数转换为torch.nn.Parameter()会导致张量无法保持更新,现在去掉这个操作后,误差开始减少。