scaling inputs data to neural network

我们必须对神经网络的输入数据进行缩放吗?这会如何影响神经网络的最终解?

我尝试寻找了一些可靠的来源。书籍《统计学习的要素》(第400页)提到,这有助于选择合理的初始随机权重来开始训练。

难道最终的权重不是确定的吗,无论我们使用什么初始随机权重?

谢谢你。


回答:

首先,有许多类型的ANN,我假设你指的是最简单的多层感知器和反向传播算法。

其次,在你的问题中,你混淆了数据缩放(归一化)和权重初始化。

你需要随机初始化权重来避免学习时的对称性(如果所有权重初始相同,它们的更新也会相同)。一般来说,具体的值并不重要,但过大的值可能会导致收敛速度变慢。

不需要数据进行归一化,但归一化可以使学习过程更快。更多细节请参见这个问题

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注