目前我正在尝试创建一个三层神经网络。当我开始尝试训练XOR时,我想到了一点:
double NewWeight(double oldWeight){return oldWeight+(MeanSquaredError*input*learningRate);}
这是根据http://natureofcode.com/book/chapter-10-neural-networks/计算新权重的公式
首先,如果我的输入为零,无论错误如何,权重都将保持不变。这是通过偏置来解决的吗?
其次,神经网络通常有两个以上的输入(例如在XOR中)。在这种情况下,你需要将两个输入相加吗?或者是分别计算每个输入的权重平均值?
如果你建议我使用不同的新权重函数,请不要在不解释符号的情况下发布方程式。谢谢!
回答:
首先,偏置不会改变任何事情。通常,偏置通过一个额外的输入实现,该输入恒定为1,并有一个作为偏置的权重。参见https://en.wikipedia.org/wiki/Perceptron#Definitions。
其次,你需要为网络中的每个边计算权重。因此,如果你有两个输入,你需要为每个输入计算权重。
我认为,如果你的输入为0,你就没有信息。没有信息,你就无法判断如何改变权重。你的函数对于反向传播来说是绝对正确的。