为了自学,我尝试使用Keras实现一个简单的序列到序列模型。虽然我基本了解这个概念,并且在线上有很多教程,但我还是在看这些教程时对一些基本概念感到困惑:
- Keras教程:我尝试采用这个教程。不幸的是,它适用于字符序列,而我的目标是词序列。虽然教程中有一部分解释了词序列所需的内容,但目前它会抛出“维度错误”的错误——但这没关系,可能是我数据准备方面的错误。更重要的是,在这个教程中,我可以清楚地看到两种输入和一种输出:
encoder_input_data
,decoder_input_data
,decoder_target_data
- MachineLearningMastery教程:这里的网络模型看起来非常不同,完全是顺序的,只有一个输入和一个输出。据我所知,这里解码器只接收编码器的输出。
可以说这确实是两种不同的Seq2Seq方法吗?哪一种可能更好,为什么?或者我误读了第二个教程?我已经理解了序列分类和序列标记,但在序列到序列方面还没有完全理解。
回答:
是的,这两者确实是不同的方法,还有其他变体。MachineLearningMastery简化了一些内容以便于理解。我认为Keras方法可能表现得更好,如果你想进一步学习带有注意力机制的seq2seq,这几乎总是必要的。
MachineLearningMastery有一个临时解决方案,允许它在不输入解码器输入的情况下工作。它只是重复最后的隐藏状态并将其作为每个时间步的输入传递。这不是一个灵活的解决方案。
model.add(RepeatVector(tar_timesteps))
另一方面,Keras教程包含了几个其他概念,如教师强制(使用目标作为解码器的输入)、嵌入(缺乏)和更长的推理过程,但它应该为注意力机制做好准备。
我还推荐pytorch教程,我认为这是最合适的方法。
编辑:我不知道你的任务是什么,但对于词嵌入,你需要的是
x = Embedding(num_encoder_tokens, latent_dim)(encoder_inputs)
在此之前,你需要将词汇表中的每个词映射成一个整数,将每个句子变成一个整数序列,并将该整数序列传递给模型(嵌入层的潜在维度可能是120)。这样,每个词现在都由一个大小为120的向量表示。另外,你的输入句子必须长度相同。所以找到一个合适的最大句子长度,将每个句子变成该长度,如果句子比最大长度短,则用零填充,其中0可能代表一个空词。