我正在设计一个multi_label_image_Classifier
。为此,我需要加载大约7867张训练图像。在加载图像时,RAM使用量从0.92 GB增加到12.5 GB。
加载后,当我将图像拟合到一个numpy数组中时,RAM使用了所有可用的空间,即25.54 GB,并且代码停止执行并出现错误“你的会话崩溃了”。
我使用的样本代码如下
train_images= []for i in tqdm(range(train.shape[0)): img = image.load_img( '/content/Multi_Label_dataset/Images/'+train['Id'][i]+'.jpg', target_size=(400,400,3) ) img = image.img_to_array(img) img = img/255 train_image.append(img)
到这里为止,RAM使用量为12.52 GB
X= np.array(train_image)
执行这一行时,RAM使用量变为红色,并且弹出“会话崩溃消息”。
如何处理这个问题?
回答:
你的数据集太大,无法一次性加载到RAM中。这在使用图像数据集时很常见。除了数据集,RAM还需要容纳模型、其他变量和处理所需的额外空间。
为了帮助加载数据,你可以使用data_generators()
和flow_from_directory()
。这些方法在Keras中可用,请查看文档。
data_generator()
负责所有图像预处理工作,如重塑和归一化。flow_from_directory()
将帮助解决你的内存问题。它会从指定目录动态加载一批图像,并在应用预处理技术后将它们传递给模型。