这个问题似乎更具理论性,我希望有人知道答案。我正在使用TensorFlow训练一个全连接的深层神经网络,我对隐藏层应用了dropout,并且在某些情况下我正在研究dropout的效果。
我知道dropout只应用于输入层和隐藏层,在评估网络时,保持概率应该为1.0。如果我想在没有dropout的情况下训练我的网络……我可以只将隐藏层的保持概率设置为1进行训练,还是必须从源代码中完全删除dropout?
问候
回答:
你可以保持你的代码不变,保持概率为1.0确实相当于没有dropout,因为所有激活都被保留了。