在神经网络的学习阶段,完成反向传播后会发生什么?

在神经网络的学习阶段,有两个机制在运作:前馈和反向传播。以XOR操作作为例子说明。

A   B   Q0   0   00   1   11   0   11   1   0

在第一次传递(0,0->0)时,首先进行前馈,然后进行反向传播。在这一步之后,所有权重都会被重新计算。
接下来会发生什么?

问题1:是否再次使用新计算的权重(在反向传播过程中计算的)对相同的输入0,0进行前馈,然后进行反向传播,直到误差变为零?如果是,如果误差永远不会变为零会怎样?这引出了我的下一个问题。

问题2:什么时候会进行下一次传递(0,1->1)的学习?

问题3:假设第一轮传递的最终权重为10.3、-2.3、5.5。第二轮传递(0,1->1)是否会使用第一轮传递的最终权重开始前馈?

如果我需要通过代码来描述,以下哪个代码是正确的?

以下选项的通用代码

averageErrorUntilLearn = 0.002;inputs = [[0, 0],[0, 1],[1, 0],[1, 1]];outputs = [0, 1, 1, 0];inputNeurons = 2;hiddenLayers = 1;outputNeurons = 1;//initialize the Neural NetneuralNetObj = NeuralNet();neuralNetObj.createTopology(inputNeurons, hiddenLayers, outputNeurons);weightsForTheNetwork = randomWeights();

问题3场景 – 每轮传递计算的权重会传递到下一轮

//learn while (averageError > averageErrorUntilLearn):    for i in range(0,len(input)):        console.log("Current Pass-" + i);        neuralNetObj.learningParams(inputs[i], outputs[i]);        neuralNetObj.initializeWeights(weightsForTheNetwork);        neuralNetObj.feedforward();        neuralNetObj.backPropagate();        weightsForTheNetwork=neuralNetObj.getNewWeights();        averageError = neuralNetObj.getAverageError();

问题1场景 – 每轮传递使用自己的权重计算,直到达到所需的学习效果,然后将权重传递到新的一轮

//learn for i in range(0,len(input)):    while (averageError > averageErrorUntilLearn):        console.log("Current Pass-" + i);        neuralNetObj.learningParams(inputs[i], outputs[i]);        neuralNetObj.initializeWeights(weightsForTheNetwork);        neuralNetObj.feedforward();        neuralNetObj.backPropagate();        weightsForTheNetwork = neuralNetObj.getNewWeights();        averageError = neuralNetObj.getAverageError();

还是我完全错了,以上场景都不正确?


回答:

1) 是的,反向传播步骤会持续更新权重,直到前馈步骤的误差为0。不管是否达到0误差,你都必须定义一个停止标准来告诉它何时停止。最简单的办法是设定一个固定的训练迭代次数。这是一个很好的、简单的开始方法。实际问题会使用更复杂的方法,比如定期检查在单独的验证步骤上的准确性,并在准确性不再提高时停止。然而,对于XOR问题,只需使用固定的迭代次数。你需要决定并告诉它停止标准是什么。

2) 你不希望在一个实例上(如0,0->0)反复训练,然后再切换到另一个实例。如果你一次训练一个实例,先完成第一个实例的训练(前馈和反向传播步骤),然后进行下一个实例,依此类推,直到训练数据结束。然后从头开始,再次遍历每个实例。这样,它就在训练数据中表示的每个案例的训练中交错进行。正如@Maxim所说,更常见的是以批次进行训练。在一个批次中,它会同时进行所有前馈传递,并收集网络对答案的所有猜测。然后,它会计算批次中每个实例的误差,并进行一次反向传播,以纠正批次中所有实例的平均误差。因此,它同时学习如何处理批次中的所有情况。这比一次处理一个实例要快,但网络应该能够以任何方式学习这个问题。这里的重要一点是,它同时学习训练数据中的所有情况,而不是一个接一个地学习。

3) 是的,一旦你完成了反向传播步骤,它会将更新应用到权重上,接下来的训练步骤将使用新的权重。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注