我使用Tensorflow后端的Keras来训练一个修改后的Resnet-50模型,该模型将对象分类为15个类别。我使用了Adam优化器,并尝试了0.001和0.01的学习率,但得到了相似的结果。
我遇到的问题是,损失和准确率在训练和验证数据集上显示出相似的行为。它们在相同的时间上升或下降,而我原本期望随着损失的下降,准确率会提高。是什么导致了这种行为?
编辑:模型的代码如下:
#模型创建:
def create_model(possible_labels):
rn50 = ResNet50(include_top=True, weights=None)
layer_name = rn50.layers[-2].name
model = Model(rn50.input,
Dense(len(possible_labels))(rn50.get_layer(layer_name).output))
adam = Adam(lr=0.0001)
model.compile(loss='categorical_crossentropy',
optimizer=adam, metrics=['accuracy'])
checkpointer = ModelCheckpoint(filepath='the_best_you_ever_had',
verbose=1, save_best_only=True)
tensorboard = TensorBoard()
return model, [checkpointer, tensorboard]
model, checkpointers = create_model(labels)
#数据集生成:
train_datagen = ImageDataGenerator(featurewise_center=True,
featurewise_std_normalization=True,
rotation_range=20,
width_shift_range=0.2,
height_shift_range=0.2,
horizontal_flip=True,
vertical_flip=True,
channel_shift_range=0.2,
shear_range=0.2,
zoom_range=0.2)
val_datagen = ImageDataGenerator()
train_generator = train_datagen.flow_from_directory('data\\train',
target_size=(224, 224),
batch_size=32,
class_mode='categorical')
val_generator = val_datagen.flow_from_directory('data\\validation',
target_size=(224, 224),
batch_size=32,
class_mode='categorical')
#模型训练:
model.fit_generator(train_generator,
steps_per_epoch=5000,
epochs=50,
validation_data=val_generator,
callbacks=checkpointers)
回答:
我发现代码中的错误是,我在添加的最后一层使用了默认的(线性)激活函数。我将其改为softmax激活函数(因为这是分类问题而不是回归问题),代码改动如下:
model = Model(rn50.input,
Dense(len(possible_labels), activation='softmax')
(rn50.get_layer(layer_name).output))
然后,曲线开始按预期表现,我达到了96%的准确率。