我可以将我的RNN模型解包到我的网站上,但是当我尝试使用一个列表作为输入(仅包含一个名为text
的字符串,但根据我所了解的,需要将其转换为list
以进行预处理)来预测一个numpy数组的预测值时,遇到了问题:
ValueError: Error when checking : expected embedding_1_input to have shape (None, 72) but got array with shape (1, 690)
这是我当前对模型进行预处理和预测的方式:
tokenizer = Tokenizer(num_words = 5000, split=' ')tokenizer.fit_on_texts([text])X = tokenizer.texts_to_sequences([text])X = pad_sequences(X)prediction = loadedModel.predict(X)print(prediction)
这是我训练模型的方式:
HIDDEN_LAYER_SIZE = 195 # 隐藏层中的节点数量。TOP_WORDS = 5000 # 数据集中最常用的词汇。MAX_REVIEW_LENGTH = 500 # 每个文本的字符长度(必要)。EMBEDDING_VECTOR_LENGTH = 128 # 嵌入层将使用128长度的向量来表示每个词。BATCH_SIZE = 32 # 每次处理64个句子,并持续重新训练RNN。NUMBER_OF_EPOCHS = 10 # 使RNN更准确地猜测数据的政治偏见。DROPOUT = 0.2 # 帮助减缓数据的过拟合(降低收敛速度)# 定义模型model = Sequential()model.add(Embedding(TOP_WORDS, EMBEDDING_VECTOR_LENGTH, \ input_length=X.shape[1]))model.add(SpatialDropout1D(DROPOUT))model.add(LSTM(HIDDEN_LAYER_SIZE))model.add(Dropout(DROPOUT))model.add(Dense(2, activation='softmax'))# 编译模型model.compile(loss='categorical_crossentropy', optimizer='adam', \ metrics=['accuracy'])#printModelSummary(model)# 拟合模型model.fit(X_train, Y_train, validation_data=(X_test, Y_test), \ epochs=NUMBER_OF_EPOCHS, batch_size=BATCH_SIZE)
我如何修改以“tokenizer”开头的代码框中的预处理代码来避免出现ValueError?谢谢,我可以提供更多代码或进一步解释项目的目的。
回答:
这里有两个问题需要解决:
-
在
pad_sequences
中设置max_len
:看起来你的所有训练序列都被填充到长度72
,所以你需要更改以下代码行:X = pad_sequences(X, max_len=72)
-
使用训练时的
Tokenizer
:这是一个细微的问题 – 你创建并拟合了一个全新的Tokenizer
,它可能与你训练时使用的Tokenizer
不同。这可能会导致问题 – 因为不同的词可能有不同的索引 – 这会使你的模型表现得很差。尝试将你的训练Tokenizer
进行pickle
处理,并在部署时加载它,以便正确地将句子转换为输入模型的数据点。