我注意到在使用tensorflow/serving的docker容器部署Keras LSTM模型时,对model:predict
的调用会对相同的输入返回不一致的值。
经过一些研究,似乎是Dropout层引起了这个问题。
如何正确地导出/保存一个没有Dropout层的模型,以便在tensorflow/serving中使用?
回答:
无需调整Dropout层,您遇到的问题是因为模型没有被正确导出。
在将模型导出为仅tensorflow格式之前,您应该将learning_phase
设置为零,这表示导出的模型应在推理/测试模式下工作:
import keras.backend as KK.set_learning_phase(0)
如果不这样做,那么导出的模型将表现得像是处于训练模式,Dropout层将不会按预期工作。您可以在Keras博客上找到更多详情。