我在使用Keras(搭配TensorFlow)来实现卷积神经网络进行图像分类。我的GPU使用率没有超过1%,我发现这是由于加载数据到内存的延迟导致的GPU利用率低。但我不知道如何在Keras中实现解决方案。
谁能提供一个代码片段来避免这个瓶颈?
(我读到了一些建议,如预加载数据和并行处理等,但我不了解这些方法)
回答:
这里有很多工作要做。
首先,你需要一个生成器。它会按批次提供数据。你可以自己编写生成器,或者让Keras来做,在第一种情况下可以使用这个教程。生成器的基本形式如下:
class DataGenerator(tf.keras.utils.Sequence): def __init__(self, ...): self.images = ... self.targets = ... self.batch_size = ... def __len__(self): return int(np.floor(len(self.images) / self.batch_size)) def __getitem__(self, index): return self.images[index*self.batch_size:(index+1)*self.batch_size], self.targets[index*self.batch_size:(index+1)*self.batch_size]
你也可以使用Keras预处理,它会为你完成这些工作。
如果你想100%利用你的GPU,这是非常重要的。
当你的数据生成器工作正常后,就该进行并行化了。
并行化是通过分布式策略实现的
strategy = tf.distribute.MirroredStrategy()with strategy.scope(): model = # your keras model train_generator = DataGenerator(...) validation_generator = DataGenerator(...) test_generator = DataGenerator(...) optimizer = tf.keras.optimizers... model.compile(loss=loss, optimizer=optimizer, metrics=['...']) model.fit(train_generator, validation_data=validation_generator, validation_freq=1, epochs=FLAGS.epochs, callbacks=callbacks)
你需要将所有东西(数据生成器 + 模型)放在分布式策略的作用域下。就这样了。