尽管我的训练、验证和测试集始终相同,测试准确率仍会波动。我能想到的唯一原因是权重初始化。我使用PyTorch,我想他们使用了高级初始化技术(Kaiming初始化)。
即使训练、验证和测试数据相同,准确率波动的原因可能是什么?
回答:
除了权重初始化外,层间的dropout也涉及随机性,这些可能导致再次运行时产生不同的结果。
这些随机数通常基于一个种子值,固定种子值可以帮助重现结果。你可以查看这里了解如何固定种子值。
尽管我的训练、验证和测试集始终相同,测试准确率仍会波动。我能想到的唯一原因是权重初始化。我使用PyTorch,我想他们使用了高级初始化技术(Kaiming初始化)。
即使训练、验证和测试数据相同,准确率波动的原因可能是什么?
回答:
除了权重初始化外,层间的dropout也涉及随机性,这些可能导致再次运行时产生不同的结果。
这些随机数通常基于一个种子值,固定种子值可以帮助重现结果。你可以查看这里了解如何固定种子值。