Tensorflow错误:尝试使用未初始化的值 multi_rnn_cell

在我的模型文件中,我创建了一个多层RNN,如下所示:

#RNN初始化部分
cell = tf.contrib.rnn.GRUCell(self.global_dim, kernel_initializer=self.xavier_initializer)
self.GRU = tf.contrib.rnn.MultiRNNCell([cell for _ in range(self.rnn_layers)])

我在另一个函数中调用这个单元:

def RNN(self):
    state = self.initRNNState()
    inputs = tf.reshape(self.itemVec, [self.num_steps, self.batch_size, self.global_dim])
    hiddenState = []
    for time_step in range(self.num_steps):
        _, state = self.GRU(inputs[time_step], state)
        hiddenState.append(tf.reshape(state[-1], [self.global_dim])) #存储最后一层
    return tf.convert_to_tensor(hiddenState)

在我的主文件中,我尝试了sess.run(tf.global_variables_initializer())sess.run(tf.local_variables_initializer()),但得到了相同的错误:

FailedPreconditionError (see above for traceback): Attempting to use uninitialized value multi_rnn_cell/cell_0/gru_cell/gates/kernel
    [[Node: multi_rnn_cell/cell_0/gru_cell/gates/kernel/read = Identity[T=DT_FLOAT, _class=["loc:@multi_rnn_cell/cell_0/gru_cell/gates/kernel"], _device="/job:localhost/replica:0/task:0/device:GPU:0"](multi_rnn_cell/cell_0/gru_cell/gates/kernel)]]
    [[Node: Neg/_11 = _Recv[client_terminated=false, recv_device="/job:localhost/replica:0/task:0/device:CPU:0", send_device="/job:localhost/replica:0/task:0/device:GPU:0", send_device_incarnation=1, tensor_name="edge_1304_Neg", tensor_type=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:CPU:0"]()]]

我想知道为什么我的GRU单元没有被初始化。


回答:

你没有展示完整的代码,但我确定你是先调用sess.run(tf.global_variables_initializer()),然后再调用RNN()方法。这样做是行不通的,因为RNN()在向图中添加新的节点,这些节点也需要像其他节点一样被初始化。

解决方案:确保你创建了完整的计算图,然后再调用初始化器。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注