Keras图像预处理

我的训练图像是其关联的高分辨率(HR)图像的缩小版本。因此,输入和输出图像的尺寸并不相同。目前,我使用的是手工挑选的13张图像样本,但我最终希望能够使用大约500张高分辨率图像的数据集。然而,这个数据集中的图像尺寸各不相同,所以我猜想我需要裁剪它们以获得统一的尺寸。

我目前设置了以下代码:它处理一组512x512x3的图像,并通过翻转等方式应用一些变换来增强数据。因此,我得到了39张高分辨率形式的基本图像集,然后我将它们按4的比例缩小,从而获得了包含39张尺寸为128x128x3的图像的训练集。

import numpy as np
from keras.preprocessing.image import ImageDataGenerator
import matplotlib.image as mpimg
import skimage
from skimage import transform
from constants import data_path
from constants import img_width
from constants import img_height
from model import setUpModel
def setUpImages():
    train = []
    finalTest = []
    sample_amnt = 11
    max_amnt = 13
    # 提取图像(512x512)
    for i in range(sample_amnt):
        train.append(mpimg.imread(data_path + str(i) + '.jpg'))
    for i in range(max_amnt-sample_amnt):
        finalTest.append(mpimg.imread(data_path + str(i+sample_amnt) + '.jpg'))
    # # TODO: https://keras.io/preprocessing/image/
    # ImageDataGenerator(featurewise_center=False, samplewise_center=False, featurewise_std_normalization=False,
    #                    samplewise_std_normalization=False, zca_whitening=False, zca_epsilon=1e-06, rotation_range=0,
    #                    width_shift_range=0.0, height_shift_range=0.0, brightness_range=None, shear_range=0.0,
    #                    zoom_range=0.0, channel_shift_range=0.0, fill_mode='nearest', cval=0.0, horizontal_flip=False,
    #                    vertical_flip=False, rescale=None, preprocessing_function=None, data_format=None,
    #                    validation_split=0.0, dtype=None)
    # 增强数据
    trainData = dataAugmentation(train)
    testData  = dataAugmentation(finalTest)
    setUpData(trainData, testData)
def setUpData(trainData, testData):
    # print(type(trainData))                          # <class 'numpy.ndarray'>
    # print(len(trainData))                           # 64
    # print(type(trainData[0]))                       # <class 'numpy.ndarray'>
    # print(trainData[0].shape)                       # (1400, 1400, 3)
    # print(trainData[len(trainData)//2-1].shape)     # (1400, 1400, 3)
    # print(trainData[len(trainData)//2].shape)       # (350, 350, 3)
    # print(trainData[len(trainData)-1].shape)        # (350, 350, 3)
    # TODO: substract mean of all images to all images
    # 分离训练数据
    Y_train = trainData[:len(trainData)//2]
    # 前半部分是未经修改的数据
    X_train = trainData[len(trainData)//2:]
    # 后半部分是劣化数据
    # 分离测试数据
    Y_test = testData[:len(testData)//2]  # 前半部分是未经修改的数据
    X_test = testData[len(testData)//2:]  # 后半部分是劣化数据
    # 调整形状以适应Keras输入  # TODO: make into a function ?
    X_train = np.array([x for x in X_train])
    Y_train = np.array([x for x in Y_train])
    Y_test = np.array([x for x in Y_test])
    X_test = np.array([x for x in X_test])
    # # Sanity check: display four images (2x HR/LR)
    # plt.figure(figsize=(10, 10))
    # for i in range(2):
    #     plt.subplot(2, 2, i + 1)
    #     plt.imshow(Y_train[i], cmap=plt.cm.binary)
    # for i in range(2):
    #     plt.subplot(2, 2, i + 1 + 2)
    #     plt.imshow(X_train[i], cmap=plt.cm.binary)
    # plt.show()
    setUpModel(X_train, Y_train, X_test, Y_test)
# TODO: possibly remove once Keras Preprocessing is integrated?
def dataAugmentation(dataToAugment):
    print("开始增强数据")
    arrayToFill = []
    # 用0到1之间的值进行计算更快?
    dataToAugment = np.divide(dataToAugment, 255.)
    # TODO: switch from RGB channels to CbCrY
    # # TODO: Try GrayScale
    # trainingData = np.array(
    #     [(cv2.cvtColor(np.uint8(x * 255), cv2.COLOR_BGR2GRAY) / 255).reshape(350, 350, 1) for x in trainingData])
    # validateData = np.array(
    #     [(cv2.cvtColor(np.uint8(x * 255), cv2.COLOR_BGR2GRAY) / 255).reshape(1400, 1400, 1) for x in validateData])
    # 添加正常图像   (8)
    for i in range(len(dataToAugment)):
        arrayToFill.append(dataToAugment[i])
    # 垂直轴翻转         (-> 16)
    for i in range(len(arrayToFill)):
        arrayToFill.append(np.fliplr(arrayToFill[i]))
    # 水平轴翻转       (-> 32)
    for i in range(len(arrayToFill)):
        arrayToFill.append(np.flipud(arrayToFill[i]))
    # 按4的比例缩小   (-> 64 images of 128x128x3)
    for i in range(len(arrayToFill)):
        arrayToFill.append(skimage.transform.resize(
            arrayToFill[i],
            (img_width/4, img_height/4),
            mode='reflect',
            anti_aliasing=True))
    # # Sanity check: display the images
    # plt.figure(figsize=(10, 10))
    # for i in range(64):
    #     plt.subplot(8, 8, i + 1)
    #     plt.imshow(arrayToFill[i], cmap=plt.cm.binary)
    # plt.show()
    return np.array(arrayToFill)

我的问题是:在我的情况下,我可以使用Keras提供的预处理工具吗?我理想的目标是能够输入各种尺寸的高质量图像,将它们裁剪(而不是缩小)到512x512x3,并通过翻转等方式进行数据增强。减去均值也是我希望实现的一部分。这组数据将代表我的验证集。

重用验证集,我希望将所有图像按4的比例缩小,这将生成我的训练集。

这两个集合然后可以适当分开,最终得到著名的X_train Y_train X_test Y_test

我对放弃迄今为止为预处理我的小样本所做的所有工作有些犹豫,但我在想,如果所有这些都可以通过一个内置函数完成,也许我应该尝试一下。

这是我的第一个机器学习项目,因此我对Keras的理解不是很清楚,文档也不是总是最清晰的。我在想,由于我处理的X和Y尺寸不同,也许这个函数不适用于我的项目。

谢谢你!:)


回答:

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注