我的代码用于预测句子的情感。我训练了一个CNN模型并保存了它。当我加载模型并尝试预测一个句子的情感时,对于同一句话,我得到了不同的预测结果。我的代码如下,问题发生在我在底部调用predict_cnn_word2vec函数进行预测时:
...
当我在主函数中调用predict_cnn_word2vec()时,我进入了一个while循环。对于每一句,模型都会被重新加载以预测句子的情感。在最初的几个循环中,它给出了相同的结果。但随着我进行更多预测,结果似乎发生了变化。以下是我的日志示例:
...
我已经检查了我的data_provider,它将我的句子转换为向量,并且每次都返回相同的句子向量。因此,这个问题不应该是由于输入数据引起的。我想知道每次tensorflow重新加载模型时,模型中的某些东西是否正确加载了。谁能帮我解决这个问题?
回答:
你在推理时没有关闭dropout!
Dropout会导致层中的随机部分单元将其激活值设置为0。这在训练期间是一种有用的正则化方法,但在验证或测试模型或在生产中运行模型时,你不希望有这种行为。
你不应该用一个浮点数dropout值来初始化网络并继续下去,你需要将dropout设置为一个占位符,就像你的输入和目标一样。在训练期间,通过feed dict将这个占位符设置为一个合理值(例如0.5)。在推理时,将这个占位符设置为1.0。