在神经网络的学习阶段,完成反向传播后会发生什么?

在神经网络的学习阶段,有两个机制在运作:前馈和反向传播。以XOR操作作为例子说明。

A   B   Q0   0   00   1   11   0   11   1   0

在第一次传递(0,0->0)时,首先进行前馈,然后进行反向传播。在这一步之后,所有权重都会被重新计算。
接下来会发生什么?

问题1:是否再次使用新计算的权重(在反向传播过程中计算的)对相同的输入0,0进行前馈,然后进行反向传播,直到误差变为零?如果是,如果误差永远不会变为零会怎样?这引出了我的下一个问题。

问题2:什么时候会进行下一次传递(0,1->1)的学习?

问题3:假设第一轮传递的最终权重为10.3、-2.3、5.5。第二轮传递(0,1->1)是否会使用第一轮传递的最终权重开始前馈?

如果我需要通过代码来描述,以下哪个代码是正确的?

以下选项的通用代码

averageErrorUntilLearn = 0.002;inputs = [[0, 0],[0, 1],[1, 0],[1, 1]];outputs = [0, 1, 1, 0];inputNeurons = 2;hiddenLayers = 1;outputNeurons = 1;//initialize the Neural NetneuralNetObj = NeuralNet();neuralNetObj.createTopology(inputNeurons, hiddenLayers, outputNeurons);weightsForTheNetwork = randomWeights();

问题3场景 – 每轮传递计算的权重会传递到下一轮

//learn while (averageError > averageErrorUntilLearn):    for i in range(0,len(input)):        console.log("Current Pass-" + i);        neuralNetObj.learningParams(inputs[i], outputs[i]);        neuralNetObj.initializeWeights(weightsForTheNetwork);        neuralNetObj.feedforward();        neuralNetObj.backPropagate();        weightsForTheNetwork=neuralNetObj.getNewWeights();        averageError = neuralNetObj.getAverageError();

问题1场景 – 每轮传递使用自己的权重计算,直到达到所需的学习效果,然后将权重传递到新的一轮

//learn for i in range(0,len(input)):    while (averageError > averageErrorUntilLearn):        console.log("Current Pass-" + i);        neuralNetObj.learningParams(inputs[i], outputs[i]);        neuralNetObj.initializeWeights(weightsForTheNetwork);        neuralNetObj.feedforward();        neuralNetObj.backPropagate();        weightsForTheNetwork = neuralNetObj.getNewWeights();        averageError = neuralNetObj.getAverageError();

还是我完全错了,以上场景都不正确?


回答:

1) 是的,反向传播步骤会持续更新权重,直到前馈步骤的误差为0。不管是否达到0误差,你都必须定义一个停止标准来告诉它何时停止。最简单的办法是设定一个固定的训练迭代次数。这是一个很好的、简单的开始方法。实际问题会使用更复杂的方法,比如定期检查在单独的验证步骤上的准确性,并在准确性不再提高时停止。然而,对于XOR问题,只需使用固定的迭代次数。你需要决定并告诉它停止标准是什么。

2) 你不希望在一个实例上(如0,0->0)反复训练,然后再切换到另一个实例。如果你一次训练一个实例,先完成第一个实例的训练(前馈和反向传播步骤),然后进行下一个实例,依此类推,直到训练数据结束。然后从头开始,再次遍历每个实例。这样,它就在训练数据中表示的每个案例的训练中交错进行。正如@Maxim所说,更常见的是以批次进行训练。在一个批次中,它会同时进行所有前馈传递,并收集网络对答案的所有猜测。然后,它会计算批次中每个实例的误差,并进行一次反向传播,以纠正批次中所有实例的平均误差。因此,它同时学习如何处理批次中的所有情况。这比一次处理一个实例要快,但网络应该能够以任何方式学习这个问题。这里的重要一点是,它同时学习训练数据中的所有情况,而不是一个接一个地学习。

3) 是的,一旦你完成了反向传播步骤,它会将更新应用到权重上,接下来的训练步骤将使用新的权重。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注