我觉得我在使用Encog时做了一些错误的事情。在我看到的所有例子中,他们只是训练到达到某个训练误差,然后打印结果。梯度是什么时候计算的,隐藏层的权重又是什么时候更新的?这是否都包含在training.iteration()函数中?这没有意义,因为尽管我的训练误差在程序中持续下降,这似乎意味着权重在变化,但我还没有将验证集(我在构建数据之初就从训练集中分离出来)运行通过网络,以确定验证误差是否随着训练误差继续下降。
我还将验证集加载到训练器中,并通过compute()运行网络,但验证误差总是与训练误差相似——所以很难判断是否是训练中的相同误差。同时,测试命中率不到50%(如果没有学习,这是预期的)。
我知道有很多不同类型的反向传播技术,特别是常见的使用梯度下降的技术以及弹性反向传播。我们期望手动更新网络的哪一部分?
回答:
在Encog中,权重在Train.iteration方法调用期间更新。这包括所有权重。如果您使用的是基于梯度下降的训练器(例如反向传播、rprop、quickprop),那么您的神经网络会在每次迭代调用结束时更新。如果您使用的是基于种群的训练器(例如遗传算法等),那么您必须调用finishTraining,以便将最佳种群成员复制回您传递给训练器构造函数的实际神经网络。实际上,在迭代之后调用finishTraining总是好的。有些训练器需要它,有些则不需要。
另一件需要记住的事情是,有些训练器在调用iteration的开始报告当前误差,有些则在迭代结束时报告(改进后的误差)。这是为了提高效率,使一些训练器不必对数据进行两次迭代。
保留一个验证集来测试您的训练是一个好主意。以下是一些可能对您有帮助的方法:
BasicNetwork.dumpWeights – 显示您的神经网络的权重。这允许您查看它们是否已更改。BasicNetwork.calculateError – 将训练集传递给它,它将给您误差。