我想使用Tensorflow和Keras在预训练模型中添加新的层。问题是,这些新层并不是要添加到模型的顶部,而是要添加到模型的开头。我希望创建一个三重连体模型,该模型接收3个不同的输入并输出3个不同的输出,使用预训练网络作为模型的核心。为此,我需要在模型的开头插入3个新的输入层。
默认的方法是直接将层和模型连接起来,但这种方法将预训练模型视为一个新层(当创建一个带有新输入和预训练模型的新模型时,新模型只包含4层,即3个输入层和整个预训练模型):
input_1 = tf.keras.layers.Input(shape = (224,224,3))input_2 = tf.keras.layers.Input(shape = (224,224,3))input_3 = tf.keras.layers.Input(shape = (224,224,3))output_1 = pre_trained_model(input_1)output_2 = pre_trained_model(input_2)output_3 = pre_trained_model(input_3)new_model = tf.keras.Model([input_1, input_2, input_3], [output_1, output_2, output_3])
new_model
只有4层,因为Keras API将pre_trained_model
视为一个层。
我知道上面的选项是可行的,因为我在许多代码样本中看到过,但我怀疑是否有更好的选项。这对我来说感觉很别扭,因为对最终模型内部层的访问会变得混乱,更不用说模型在添加的3个输入层之后还有一个额外的输入层(来自预训练模型的输入层仍然完好无损,并且完全不必要)。
回答:
不,这样做并不是添加层,你是在创建一个多输入多输出的模型,每个连体分支共享权重。Keras中没有其他API可以做到这一点,所以这是你唯一的选择。
而且你总是可以通过pre_trained_model
变量访问内部模型的层,所以没有什么损失。