当我们在Keras 2中进行迁移学习时,参数需要“input_shape”和“input_tensor”。但我只使用了input_tensor,从未使用过input_shape。我认为仅使用input_tensor就足够了,我不知道什么时候应该使用input_shape。它们应该如何分别使用呢?
我同时使用了input_tensor和input_shape,并分别设置了不同的值,结果只有input_tensor的值被采纳,而input_shape被忽略了。
vgg16_model = VGG16(include_top=False, weights='imagenet', input_tensor = Input(shape=(150, 150, 3)), input_shape=(224,224,3))top_model = Sequential()top_model.add(Flatten(input_shape=vgg16_model.output_shape[1:]))top_model.add(Dense(256, activation='relu'))top_model.add(Dense(1, activation='sigmoid'))model = Model(input=vgg16_model.input, output=top_model(vgg16_model.output))model.summary()
Layer (type) Output Shape Param # ================================================================input_6 (InputLayer) (None, 150, 150, 3) 0 _________________________________________________________________block1_conv1 (Conv2D) (None, 150, 150, 64) 1792 _________________________________________________________________block1_conv2 (Conv2D) (None, 150, 150, 64) 36928 _________________________________________________________________block1_pool (MaxPooling2D) (None, 75, 75, 64) 0 _________________________________________________________________block2_conv......
我原本以为这段代码会报错,但实际上没有错误,并且这个模型能够接受(150, 150, 3)的形状。input_shape=(224,224,3)被忽略了。
你能帮我解答一下吗?谢谢。
回答:
VGG16
的代码可能只是简单地忘记了检查这两个参数。
当然,同时使用两者是没有意义的。
- 当你希望模型自动创建一个具有指定大小的输入层时,你使用
input_shape
。 - 当你有一个希望作为输入的张量时,你使用
input_tensor
。
你可以在input_tensor
中使用任何张量,这是为了将其他模型/层的输出作为VGG16
的输入。当然,你可以像你做的那样传递一个虚拟的输入张量,代码不会抱怨,因为它收到了一个张量,没问题。
唯一的问题是,编写者忘记了验证“如果两个参数都存在,则抛出错误”。