即使训练和测试数据始终相同,测试准确率仍会波动

尽管我的训练、验证和测试集始终相同,测试准确率仍会波动。我能想到的唯一原因是权重初始化。我使用PyTorch,我想他们使用了高级初始化技术(Kaiming初始化)。

即使训练、验证和测试数据相同,准确率波动的原因可能是什么?


回答:

除了权重初始化外,层间的dropout也涉及随机性,这些可能导致再次运行时产生不同的结果。

这些随机数通常基于一个种子值,固定种子值可以帮助重现结果。你可以查看这里了解如何固定种子值。

Related Posts

神经网络反向传播代码不工作

我需要编写一个简单的由1个输出节点、1个包含3个节点的…

值错误:y 包含先前未见过的标签:

我使用了 决策树分类器,我想将我的 输入 作为 字符串…

使用不平衡数据集进行特征选择时遇到的问题

我正在使用不平衡数据集(54:38:7%)进行特征选择…

广义随机森林/因果森林在Python上的应用

我在寻找Python上的广义随机森林/因果森林算法,但…

如何用PyTorch仅用标量损失来训练神经网络?

假设我们有一个神经网络,我们希望它能根据输入预测三个值…

什么是RNN中间隐藏状态的良好用途?

我已经以三种不同的方式使用了RNN/LSTM: 多对多…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注