在Keras中,模型通过model.add(LTSM(units=xx, return_sequences = yy, input_shape=zz))进行设置。当将return_sequences设置为true时,是否意味着启用蓝色圈出的箭头,并禁用红色圈出的箭头?反之,当return_sequences设置为false时是否相反?请注意,此图片来源于以下页面:https://www.analyticsvidhya.com/blog/2017/12/fundamentals-of-deep-learning-introduction-to-lstm/,在’4. LSTMs的架构’部分。
回答:
首先,蓝色圈出的箭头是LSTM的核心,它永远不会被禁用,否则你将不会拥有一个RNN/LSTM。该箭头表示从最后一个RNN/LSTM单元获取的值将传递到下一个RNN/LSTM单元,并与下一个输入一起处理。RNN与LSTM之间的唯一区别在于,简单的RNN没有那个蓝色圈出的箭头,只有下面的黑色箭头,而LSTM则有那个箭头作为短期/长期记忆的门控。
其次,关于return_sequences,它通常用于堆叠的RNN/LSTM,意味着你将一层RNN/LSTM垂直堆叠在另一层之上,而不是水平。水平的RNN/LSTM单元代表跨时间的处理,而垂直的RNN/LSTM单元意味着将一层堆叠在另一层之上。
当你将其设置为false时,意味着只有最后一个单元(水平方向)会有那个红色圈出的箭头,而同一层中的所有其他单元都会禁用那个红色圈出的箭头,因此你只会从整个水平层传递一个信息(即该层中最后一个单元传递的信息)。
相反,当你将其设置为true时,来自该水平层的所有单元都会启用那个红色圈出的箭头,并将信息传递到堆叠在其上的层。这意味着如果你想将一个RNN/LSTM层堆叠在另一个层之上,你需要将其设置为true。
最后,更多信息可以参考这本书。它对return_sequences选项有很好的解释:https://www.oreilly.com/library/view/hands-on-machine-learning/9781492032632/