我有一组从0到20的数字图像,包括中间类别(0,25 / 0,5 / 0,75)。每个数字将被定义为一个独立的类。每类有22张图像。
这些图像将用于在卷积神经网络上进行训练和测试以进行分类。我不担心准确性,这只是一个概念验证,所以我意识到数据集对于任何真正可靠的结果来说太小了。就像我说的,这只是作为一个概念验证。
编辑:根据@Kaveh的建议,我查看了ImageDataGenerator.flow_from_directory
据我所知,这是用于通过数据增强来增加数据集大小的方法。然而,我的问题是,现在我已经将这些图像放置在不同的文件夹中(每个文件夹有22张图像,每个文件夹代表一个类),我该如何使用它们。我一直是加载一个构成数据集的文件(例如:通过Keras的mnist)。我从未使用过自己的数据,因此不知道下一步该怎么做。
回答:
按照下面的方式组织你的目录
data_dir-----train_dir---------zero_dir-------------first_zero_image.jpg-------------sencond_zero_image,jpg...-------------twenty_second_zero_image.jpg---------ones_dir-------------first_ones_image.jpg-------------second_one_image.jpg...-------------twenty_second_ones_image.jpg...... twenty_dir-------------first_20_image.jpg-------------seccond_20_image.jpg...-------------twenty_second_20_image.jpg-----test_dir--------zeros_dir# 将测试目录结构与训练目录类似,并将你的测试图像放入其中
现在你可以使用Keras的ImageDataGenerator.flow_from_directory来为model.fit提供数据。
train_path=os.path.join(data_dir, train_dir)from tensorflow.keras.preprocessing.image import ImageDataGeneratorgen=ImageDataGenerator(rescale=1/255, validation_split=.2)train_gen=gen.flow_from_directory( train_path, target_size=(256, 256), color_mode="rgb", classes=None, class_mode="categorical", batch_size=32, shuffle=True, seed=123, subset='training' ) valid_gen=gen.flow_from_directory( train_path, target_size=(256, 256), color_mode="rgb", classes=None, class_mode="categorical", batch_size=32, shuffle=False, subset='validation' )history=model.fit(train_gen, epochs=20, validation_data=valid_gen)
这样就完成了