我正在尝试理解 TensorFlow(版本 1.3)中的 RNN 单元包装器,使用的代码如下(来自这里)。
import tensorflow as tfimport numpy as nptf.reset_default_graph()X = np.random.randn(2, 10, 8)X[1, 6:] = 0X_lengths = [10, 6]cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True) cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5)# cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell] * n, state_is_tuple=True)cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell for _ in range(n)], state_is_tuple=True)outputs, last_states = tf.nn.dynamic_rnn( cell=cell, dtype=tf.float64, sequence_length=X_lengths, inputs=X)result = tf.contrib.learn.run_n( {"outputs": outputs, "last_states": last_states}, n=1, feed_dict=None)print(result[0]["outputs"].shape)print(result[0]["outputs"])...
第一个问题与涉及tf.nn.rnn_cell.MultiRNNCell
的那行代码有关。具体来说,当n=1
时(意味着只生成了一层),代码运行正常。当使用n>=2
时,总是会出现以下错误消息(注释掉的原始行和下面提到的另一种实现方式这里给出了相同的错误信息):
ValueError: Trying to share variable rnn/multi_rnn_cell/cell_0/lstm_cell/kernel, but specified shape (128, 256) and found shape (72, 256).
根据我目前的调查,错误出现在tf.nn_dynamic_rnn()
函数调用处。但我还无法找出确切的原因。请有人解释一下,并提供一些关于如何使用 RNN 单元包装器的指导?
第二个问题与tf.contrib.learn.run_n
函数的弃用警告消息有关。该消息还建议如下:使用tf.train.*
工具。您可以使用learn/estimators/estimator.py作为示例。我也找不到在这里使用正确工具的好方法(请原谅我对 TensorFlow 的浅薄知识)。
关于这两个问题中的任何一个或两个问题,任何评论/建议都是非常受欢迎的。谢谢!
回答:
您需要从可能的版本 1.1 开始以不同的方式定义您的单元数组。我猜您正在使用的代码是在那之前编写的。使用类似于以下内容的代码:
cells = []for _ in range(n) cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True) cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5) cells.append(cell)cell = tf.nn.rnn_cell.MultiRNNCell(cells, state_is_tuple=True)
问题在于您当前使用的语法试图重复使用同一个cell
对象n
次,因此在共享变量时会遇到一些问题。如果您按照我建议的方式做,您将唯一地定义每个cell
,并避免意外共享变量。