数据增强会导致CNN学习速度变慢吗?

我正在处理一个图像像素分类问题,并使用数据增强(在Keras中)。

因此,我对图像块应用数据变换(旋转、翻转)。我的数据增强和训练CNN的代码如下所示。

datagen = ImageDataGenerator(    rotation_range=40,       horizontal_flip=True,    vertical_flip=True,)batch_size=16epochs=50# compile the modelmodel.compile(loss='categorical_crossentropy',          optimizer=Adam(),          metrics=['accuracy'])model_checkpoint = ModelCheckpoint('myweights.hdf5', monitor='val_acc', verbose=1, save_best_only=True, mode='max')callbacks_list = [plot_losses,model_checkpoint]history=model.fit_generator(datagen.flow(x_train, y_train, batch_size=batch_size),                    steps_per_epoch=x_train.shape[0] // batch_size,                    callbacks=callbacks_list,                    validation_data = datagen.flow(x_valid, y_valid, batch_size=batch_size),                    validation_steps=x_valid.shape[0] // batch_size,                    epochs = epochs, verbose = 1)

我的训练/验证准确率和损失图如下所示:enter image description here

我可以看到准确率持续增加,损失持续下降,这是我们想要的结果。但是在20个epoch中进展非常缓慢。没有数据增强时,我的准确率增加得更快。

那么,为什么数据增强会导致学习过程如此缓慢(在20个epoch中,训练/验证准确率大约从48%增加到58%)?

我使用的是Adam优化器,它使用指数学习率衰减,所以我认为新的学习率调度不会有太大影响,除非我遗漏了什么。欢迎任何见解。


回答:

当使用数据增强时,模型训练速度变慢是预期行为。增强会翻转、旋转并一般性地变换图像以扩大我们的数据集。这是在CPU上完成的,速度比GPU慢。

我们使用数据增强不是为了速度,而是为了提高准确率。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注