假设我在PyTorch中尝试训练一个RNN语言模型。假设我遍历词序列的批次,每个训练批次张量的形状如下:
data.shape = [batch_size, sequence_length, vocab_dim]
我的问题是,使用每个序列中仅最后一个词作为目标标签有什么区别:
X = data[:,:-1]y = data[:,-1]
并通过 softmax 预测最后一个词来最小化损失,
与将目标设置为整个右移序列的做法有什么不同:
X = data[:,:-1]y = data[:,1:]
并通过最小化右移序列中每个预测词的损失总和来训练?
这里正确的做法是什么?我感觉在线上看到过这两种例子。这是否也与循环展开和BPTT有关?
回答:
考虑序列预测问题a b c d
,你想通过教师强制来训练一个RNN。
如果你只使用句子中的最后一个词,你就是在做以下分类问题(左边是输入;右边是你应该预测的输出):
a b c -> d
对于你的第二种方法,其中y
被设置为整个右移序列,你实际上是在做三个分类问题:
a -> ba b -> ca b c -> d
预测序列中中间词的任务对于训练一个有用的RNN至关重要(否则,你会知道如何从a b
得到c
,但你不会知道在只有a
之后该如何继续)。
等效的做法是将训练数据定义为完整序列a b c d
和所有不完整序列(a b
,a b c
)。然后,如果你只做前面提到的“最后一个词”预测,你将得到与y
是整个右移序列的公式相同的监督。但这样做在计算上是浪费的——你不想在a b
和a b c
上重新运行RNN(从a b
得到的状态可以重用来获得消费a b c
后的状态)。
换句话说,执行“将y右移”的目的是将一个长度为N
的单一序列(a b c d
)分成N - 1
个独立的分类问题,形式为:“给定时间t
之前的词,预测词t + 1
”,而只需要一次RNN的前向传递。