我正在使用 TensorFlow Keras 进行一个简单的 Conv1D 操作,以尝试一个时间序列数据集。
数据:
train_df = dff[:177] #获取训练数据
tdf = train_df.shape #获取形状 = (177,4)
test = tf.convert_to_tensor(train_df)
模型:
model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=tdf),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")])
lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(5e-4,
decay_steps=1000000,
decay_rate=0.98,
staircase=False)
model.compile(loss=tf.keras.losses.MeanSquaredError(),
optimizer=tf.keras.optimizers.SGD(learning_rate=lr_schedule, momentum=0.8),
metrics=['mae'])
model.summary()
摘要:
Model: "sequential_13"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
conv1d_16 (Conv1D) (None, 177, 32) 160
_________________________________________________________________
max_pooling1d_8 (MaxPooling1 (None, 176, 32) 0
=================================================================
Total params: 160
Trainable params: 160
Non-trainable params: 0
训练:
trainedModel = model.fit(test,
epochs=100,
steps_per_epoch=1,
verbose=1)
在训练时引发的错误:
ValueError: Input 0 of layer sequential_13 is incompatible with the layer: : expected min_ndim=3, found ndim=2. Full shape received: (2, 1)
根据 Stack Overflow 上的各种讨论,这似乎是由于输入数据形状导致的。因此,我尝试了 Stack Overflow 上的一个建议,重新调整了数据形状并再次输入。
重塑:
X_train=np.reshape(test,(test.shape[0], test.shape[1],1))
在重塑后训练时引发的错误:
ValueError: Input 0 of layer sequential_14 is incompatible with the layer: expected axis -1 of input shape to have value 4 but received input with shape (177, 4, 1)
我现在很困惑。应该如何解决这个问题呢?
回答:
当前参数值:
tdf = (177,4)
我的假设 – “你有177个训练样本,每个样本有4个特征”。
当前错误的原因 – 模型假设每个样本的形状为(177,4),但当你尝试将数据传递给模型时,会出现以下错误:
ValueError: Input 0 of layer sequential_13 is incompatible with the layer: :expected min_ndim=3, found ndim=2. Full shape received: (2, 1)
这个错误表示模型期望输入具有3D维度,在这种情况下,模型需要一个批次大小。比如,一个包含16张高度为177、宽度为4的图像的批次。(虽然你没有图像,但由于你指定的输入形状,模型期望如此)。这意味着输入应该具有形状 – (batch_size, 177, 4)。
可以通过在model.fit
中传递参数batch_size=1
来解决这个问题。如下所示(无需重塑数据):
trainedModel = model.fit(data,
epochs=100,
steps_per_epoch=1,
batch_size=16,
verbose=1)
但这会引发另一个错误,如下所示:
ValueError: Input 0 of layer sequential_1 is incompatible with the layer: : expected min_ndim=3, found ndim=2. Full shape received: (None, 4)
现在这个错误意味着传递给模型的输入具有某些batch_size
(由None
表示)和形状为4
的特征向量,但模型期望输入具有形状(batch_size, height, width)
。这里所有模型都期望batch_size
,但其余两个由我们在定义输入形状时指定。我们在这里定义了:
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=tdf), # 我们在这里设置了 input_shape = (177,4)
如你所见,input_shape
被定义为height=177, width=4
。(我使用高度和宽度来简化解释,否则只有维度编号)。但是,我们希望模型接受4
个特征的输入。所以,现在我们需要将其更改为如下:
model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=(4,)),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")])
但现在当你尝试运行这个时,你会得到另一个错误,如下所示:
ValueError: Input 0 of layer conv1d_10 is incompatible with the layer: : expected min_ndim=3, found ndim=2. Full shape received: (None, 4)
需要注意的是错误来自于Conv1D层,这是因为这个层期望输入为3D,包括batch_size
,但我们在创建模型时从未指定batch_size
,参数input_shape
应该具有这样的值input_shape = (dim1, dim2)
,但在这种情况下我们只有4
个特征,因此只有dim1
而没有dim2
。在这种情况下,我们将输入重塑为4
作为(4,1)
。这样我们将有dim1 = 4
和dim2 = 1
。我们将更新我们的model
如下:
model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=(4,1)),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")])
现在我们还将输入重塑为形状(177,4, 1)
,如下所示:
train_df = dff[:177]
train_df = train_df.values.reshape(177, 4, 1)
test = tf.convert_to_tensor(train_df)
现在我们可以将其传递给模型。
trainedModel = model.fit(test,
epochs=100,
steps_per_epoch=1,
verbose=1)
遗憾的是,这将引发另一个错误,如下所示:
ValueError: No gradients provided for any variable: ['conv1d_14/kernel:0','conv1d_14/bias:0'].
这是因为模型没有获得对应于输入X
的Y
,因此无法使用loss function
计算gradients
,因此无法训练。但它仍然可以用于获取输出,如下所示:
preds = model(test)
preds.shape # 结果 -> TensorShape([177, 3, 32])