实现超分辨率模型时出现内存不足错误

我想了解如何使用卷积神经网络将高分辨率图像生成低分辨率图像。

网络输入图像是否需要较小,而输出图像是其两倍大小?

我构建了以下模型:

w,h,c=x_train[0].shapeinput = Input(shape=(w,h,c),name='LR')x = UpSampling2D(size=(2,2), name='UP')(input)h = Dense(720, activation='relu', name ='hide')(x)h2= Dense(1280, activation='relu', name ='hide2')(h)output= Dense(3, activation='relu', name ='output')(h2)model = Model(inputs=input, outputs=output)model.compile(loss='mse', optimizer='adam', metrics=['accuracy'])model.fit(x_train,y_train, epochs=50, verbose=0)

Y_train 的尺寸是 x_train 的两倍。

但我收到了以下错误信息:

ResourceExhaustedError: OOM when allocating tensor with shape[4608000,720] and type float on /job:localhost/replica:0/task:0/device:CPU:0 by allocator cpu     [[{{node hide/MatMul}}]]Hint: If you want to see a list of allocated tensors when OOM happens, add report_tensor_allocations_upon_oom to RunOptions for current allocation info

我做错了什么?


回答:

这种内存不足(OOM)错误通常是由于批次大小过大,无法适应内存所致。

我执行了 model.fit(x_train,y_train,batch_size=1024, epochs=50, verbose=0),结果占用了超过10%的系统内存。

那么1024听起来太大了。从较小的批次大小开始(例如约64),然后以2的幂逐渐增加(例如128, 256…),直到找到一个足够大但仍能适应内存的批次大小。

关于如何计算最佳批次大小的讨论可能也有帮助,参见如何计算最佳批次大小

Related Posts

为什么我们在K-means聚类方法中使用kmeans.fit函数?

我在一个视频中使用K-means聚类技术,但我不明白为…

如何获取Keras中ImageDataGenerator的.flow_from_directory函数扫描的类名?

我想制作一个用户友好的GUI图像分类器,用户只需指向数…

如何查看每个词的tf-idf得分

我试图了解文档中每个词的tf-idf得分。然而,它只返…

如何修复 ‘ValueError: Found input variables with inconsistent numbers of samples: [32979, 21602]’?

我在制作一个用于情感分析的逻辑回归模型时遇到了这个问题…

如何向神经网络输入两个不同大小的输入?

我想向神经网络输入两个数据集。第一个数据集(元素)具有…

逻辑回归与机器学习有何关联

我们正在开会讨论聘请一位我们信任的顾问来做机器学习。一…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注