在Tensorflow中,LSTMCell的状态元组(c, h)中返回的’output’和’h’有什么区别?

我查阅了许多教程、博客、指南以及Tensorflow的官方文档来理解这个问题。例如,请看下面的代码行:

lstm = tf.nn.rnn_cell.LSTMCell(512)output, state_tuple = lstm(current_input, last_state_tuple)

现在如果我解包状态,

last_cell_memory, last_hidden_state =  state_tuple

output和last_hidden_state的维度完全相同,都是[batch_size, 512]。它们可以互换使用吗?我是说,我可以这样做吗?:

last_state_tuple= last_cell_memory, output 

然后将last_state_tuple馈送到lstm中?


回答:

@的人的回答是正确的,但它没有提到一个重要点:LSTM层的状态几乎总是等于输出。当LSTM单元链很长且并非所有输入序列长度相等(因此需要填充)时,这种区别就变得重要了。那时你就应该区分状态和输出。

请查看我在一个类似问题上的答案中的可运行示例(它使用BasicRNNCell,但使用LSTMCell也会得到相同的结果)。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注