keras LSTM模型输入和输出维度不匹配

model = Sequential()    model.add(Embedding(630, 210))    model.add(LSTM(1024, dropout = 0.2, return_sequences = True))    model.add(LSTM(1024, dropout = 0.2, return_sequences = True))    model.add(Dense(210, activation = 'softmax'))    model.compile(loss = 'categorical_crossentropy', optimizer = 'adam', metrics = ['accuracy'])    filepath = 'ner_2-{epoch:02d}-{loss:.5f}.hdf5'    checkpoint = ModelCheckpoint(filepath, monitor = 'loss', verbose = 1, save_best_only = True, mode = 'min')    callback_list = [checkpoint]    model.fit(X, y , epochs = 20, batch_size = 1024, callbacks = callback_list)    

X: 输入向量的形状为 (204564, 630, 1)

y: 目标向量的形状为 (204564, 210, 1)

也就是说,对于每630个输入,需要预测210个输出,但代码在编译时抛出以下错误

ValueError                                Traceback (most recent call last)<ipython-input-57-05a6affb6217> in <module>()     50 callback_list = [checkpoint]     51 ---> 52 model.fit(X, y , epochs = 20, batch_size = 1024, callbacks = callback_list)     53 print('successful')ValueError: Error when checking model input: expected embedding_8_input to have 2 dimensions, but got array with shape (204564, 630, 1)

请有人解释一下为什么会发生这个错误以及如何解决


回答:

消息显示:

你的第一层期望输入具有2个维度:(批量大小, 其他维度)。但你的输入有3个维度(批量大小=204564,其他维度=630, 1)。

嗯… 从你的输入中去掉这个1,或者在模型内重塑它:

解决方案1 – 从输入中去掉它:

X = X.reshape((204564,630))

解决方案2 – 添加一个重塑层:

model = Sequential()model.add(Reshape((630,),input_shape=(630,1)))model.add(Embedding.....)

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注