我正在处理一个图像像素分类问题,并使用数据增强(在Keras中)。
因此,我对图像块应用数据变换(旋转、翻转)。我的数据增强和训练CNN的代码如下所示。
datagen = ImageDataGenerator( rotation_range=40, horizontal_flip=True, vertical_flip=True,)batch_size=16epochs=50# compile the modelmodel.compile(loss='categorical_crossentropy', optimizer=Adam(), metrics=['accuracy'])model_checkpoint = ModelCheckpoint('myweights.hdf5', monitor='val_acc', verbose=1, save_best_only=True, mode='max')callbacks_list = [plot_losses,model_checkpoint]history=model.fit_generator(datagen.flow(x_train, y_train, batch_size=batch_size), steps_per_epoch=x_train.shape[0] // batch_size, callbacks=callbacks_list, validation_data = datagen.flow(x_valid, y_valid, batch_size=batch_size), validation_steps=x_valid.shape[0] // batch_size, epochs = epochs, verbose = 1)
我可以看到准确率持续增加,损失持续下降,这是我们想要的结果。但是在20个epoch中进展非常缓慢。没有数据增强时,我的准确率增加得更快。
那么,为什么数据增强会导致学习过程如此缓慢(在20个epoch中,训练/验证准确率大约从48%增加到58%)?
我使用的是Adam优化器
,它使用指数学习率衰减,所以我认为新的学习率调度不会有太大影响,除非我遗漏了什么。欢迎任何见解。
回答:
当使用数据增强时,模型训练速度变慢是预期行为。增强会翻转、旋转并一般性地变换图像以扩大我们的数据集。这是在CPU上完成的,速度比GPU慢。
我们使用数据增强不是为了速度,而是为了提高准确率。