以下是我模型的架构。我的数据是一个时间序列,我只需要预测最后一个值,因此设置了return_sequences=False
。
但这正是问题所在。我能够使用sequences=True
运行神经网络,但这并不是我需要的。
我需要一个输入尺寸 (32,50,88)=(batch_size,timesteps,features),并得到输出尺寸 (32,88)=(batch_size,labels)。
特征和标签的大小相同,但这并不重要。
此代码的错误输出是:
ValueError: 检查目标时出错:期望dense_1具有2个维度,但得到的数组形状为(32, 50, 88)
这发生在训练阶段(意味着架构是有效的)。
数据以(32,50,88)的块形式从生成器中输入,标签也具有相同的大小。由于我使用keras
,我需要通过生成器创建批次。我尝试添加一个单独的(50,88),但这根本不起作用。
如何实现这种架构,输入为(32,50,88),但输出仅为(32,88)?
简而言之,我需要时间步长+50的预测…我想…
def note_model(): visible = Input(shape=(50,88), batch_shape=(32,50,88)) hidden1 = Bidirectional(LSTM(200, stateful=False, return_sequences=False, kernel_regularizer=l1(10**(-4)), dropout=0.5))(visible) #flat = Flatten()(hidden1) output = Dense(88, activation='sigmoid')(hidden1) model = Model(inputs=visible, outputs=output) print(model.summary()) return model def train_note_model(model): checkpoint_path_notes = "1Layer-200units-loss=BCE-Model-{epoch:02d}-{val_acc:.2f}.hdf5" model.compile(optimizer='SGD', loss='binary_crossentropy', metrics=['accuracy']) #mean_squared_error monitor = EarlyStopping(monitor='val_loss', min_delta=1e-3, patience=10, verbose=0, mode='min') reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.3, patience=10, min_lr=0.001) checkpoint = ModelCheckpoint(checkpoint_path_notes,monitor='val_loss', verbose=1, save_best_only=True, save_weights_only=False, mode='auto', period=1) model.fit_generator(training_generator(), steps_per_epoch=2, callbacks=[monitor, reduce_lr, checkpoint], validation_data= validation_generator(), validation_steps= 2, verbose=1, epochs=10, shuffle=True)model_try = note_model()train_note_model(model_try)
回答:
你的模型是正确的,问题在于检查目标时,这意味着你的training_generator
返回了错误的目标形状。
查看print(next(training_generator()))
,确保它返回一个形状为(32, 50, 88), (32, 88)
的元组。