当我运行我的神经网络时,唯一能让训练发生的方法是将X除以1000。网络还需要在0.03的训练率下进行少于70000次的训练,如果这些数值更大,神经网络的表现会变差。我认为这是由于数据处理不当,可能还因为缺乏偏置,但我并不确定。代码在Google Colab上
回答:
简而言之:你提到的问题以及更多问题。
- 缩放是必不可少的,通常缩放到均值为0,方差为1。否则,你会很快使隐藏单元饱和,它们的梯度将接近于零,(几乎)无法进行学习。
- 对于这种人工神经网络,偏置是必需的。它就像是拟合线性函数的偏移量。如果你省略了它,获得良好的拟合将非常困难。
- 你似乎在训练数据上检查准确性。
- 你的训练样本非常少。
- 已证明Sigmoid是一个糟糕的选择。使用ReLU,并查看例如这里的解释。
此外,我建议在深入研究之前,先花一些时间学习Python。首先,避免使用global
,如果你不小心,它可能会给你带来意想不到的行为。