我的训练图像是其关联的高分辨率(HR)图像的缩小版本。因此,输入和输出图像的尺寸并不相同。目前,我使用的是手工挑选的13张图像样本,但我最终希望能够使用大约500张高分辨率图像的数据集。然而,这个数据集中的图像尺寸各不相同,所以我猜想我需要裁剪它们以获得统一的尺寸。
我目前设置了以下代码:它处理一组512x512x3
的图像,并通过翻转等方式应用一些变换来增强数据。因此,我得到了39张高分辨率形式的基本图像集,然后我将它们按4的比例缩小,从而获得了包含39张尺寸为128x128x3
的图像的训练集。
import numpy as np
from keras.preprocessing.image import ImageDataGenerator
import matplotlib.image as mpimg
import skimage
from skimage import transform
from constants import data_path
from constants import img_width
from constants import img_height
from model import setUpModel
def setUpImages():
train = []
finalTest = []
sample_amnt = 11
max_amnt = 13
# 提取图像(512x512)
for i in range(sample_amnt):
train.append(mpimg.imread(data_path + str(i) + '.jpg'))
for i in range(max_amnt-sample_amnt):
finalTest.append(mpimg.imread(data_path + str(i+sample_amnt) + '.jpg'))
# # TODO: https://keras.io/preprocessing/image/
# ImageDataGenerator(featurewise_center=False, samplewise_center=False, featurewise_std_normalization=False,
# samplewise_std_normalization=False, zca_whitening=False, zca_epsilon=1e-06, rotation_range=0,
# width_shift_range=0.0, height_shift_range=0.0, brightness_range=None, shear_range=0.0,
# zoom_range=0.0, channel_shift_range=0.0, fill_mode='nearest', cval=0.0, horizontal_flip=False,
# vertical_flip=False, rescale=None, preprocessing_function=None, data_format=None,
# validation_split=0.0, dtype=None)
# 增强数据
trainData = dataAugmentation(train)
testData = dataAugmentation(finalTest)
setUpData(trainData, testData)
def setUpData(trainData, testData):
# print(type(trainData)) # <class 'numpy.ndarray'>
# print(len(trainData)) # 64
# print(type(trainData[0])) # <class 'numpy.ndarray'>
# print(trainData[0].shape) # (1400, 1400, 3)
# print(trainData[len(trainData)//2-1].shape) # (1400, 1400, 3)
# print(trainData[len(trainData)//2].shape) # (350, 350, 3)
# print(trainData[len(trainData)-1].shape) # (350, 350, 3)
# TODO: substract mean of all images to all images
# 分离训练数据
Y_train = trainData[:len(trainData)//2]
# 前半部分是未经修改的数据
X_train = trainData[len(trainData)//2:]
# 后半部分是劣化数据
# 分离测试数据
Y_test = testData[:len(testData)//2] # 前半部分是未经修改的数据
X_test = testData[len(testData)//2:] # 后半部分是劣化数据
# 调整形状以适应Keras输入 # TODO: make into a function ?
X_train = np.array([x for x in X_train])
Y_train = np.array([x for x in Y_train])
Y_test = np.array([x for x in Y_test])
X_test = np.array([x for x in X_test])
# # Sanity check: display four images (2x HR/LR)
# plt.figure(figsize=(10, 10))
# for i in range(2):
# plt.subplot(2, 2, i + 1)
# plt.imshow(Y_train[i], cmap=plt.cm.binary)
# for i in range(2):
# plt.subplot(2, 2, i + 1 + 2)
# plt.imshow(X_train[i], cmap=plt.cm.binary)
# plt.show()
setUpModel(X_train, Y_train, X_test, Y_test)
# TODO: possibly remove once Keras Preprocessing is integrated?
def dataAugmentation(dataToAugment):
print("开始增强数据")
arrayToFill = []
# 用0到1之间的值进行计算更快?
dataToAugment = np.divide(dataToAugment, 255.)
# TODO: switch from RGB channels to CbCrY
# # TODO: Try GrayScale
# trainingData = np.array(
# [(cv2.cvtColor(np.uint8(x * 255), cv2.COLOR_BGR2GRAY) / 255).reshape(350, 350, 1) for x in trainingData])
# validateData = np.array(
# [(cv2.cvtColor(np.uint8(x * 255), cv2.COLOR_BGR2GRAY) / 255).reshape(1400, 1400, 1) for x in validateData])
# 添加正常图像 (8)
for i in range(len(dataToAugment)):
arrayToFill.append(dataToAugment[i])
# 垂直轴翻转 (-> 16)
for i in range(len(arrayToFill)):
arrayToFill.append(np.fliplr(arrayToFill[i]))
# 水平轴翻转 (-> 32)
for i in range(len(arrayToFill)):
arrayToFill.append(np.flipud(arrayToFill[i]))
# 按4的比例缩小 (-> 64 images of 128x128x3)
for i in range(len(arrayToFill)):
arrayToFill.append(skimage.transform.resize(
arrayToFill[i],
(img_width/4, img_height/4),
mode='reflect',
anti_aliasing=True))
# # Sanity check: display the images
# plt.figure(figsize=(10, 10))
# for i in range(64):
# plt.subplot(8, 8, i + 1)
# plt.imshow(arrayToFill[i], cmap=plt.cm.binary)
# plt.show()
return np.array(arrayToFill)
我的问题是:在我的情况下,我可以使用Keras提供的预处理工具吗?我理想的目标是能够输入各种尺寸的高质量图像,将它们裁剪(而不是缩小)到512x512x3
,并通过翻转等方式进行数据增强。减去均值也是我希望实现的一部分。这组数据将代表我的验证集。
重用验证集,我希望将所有图像按4的比例缩小,这将生成我的训练集。
这两个集合然后可以适当分开,最终得到著名的X_train
Y_train
X_test
Y_test
。
我对放弃迄今为止为预处理我的小样本所做的所有工作有些犹豫,但我在想,如果所有这些都可以通过一个内置函数完成,也许我应该尝试一下。
这是我的第一个机器学习项目,因此我对Keras的理解不是很清楚,文档也不是总是最清晰的。我在想,由于我处理的X和Y尺寸不同,也许这个函数不适用于我的项目。
谢谢你!:)
回答: