在零中心处理中,全局平均与局部平均有何区别?

在图像预处理阶段进行零中心处理是必要的。

但我不明白为什么有些论文使用全局平均(整个训练集的平均值)进行减法处理,而其他论文却使用局部平均(每个小批次的平均值)。能否请您解释一下这个想法?

附注:在零中心处理中,我们是否对每个通道进行平均值的减法处理?


回答:

零中心处理作为预处理步骤有各种优势,但在这里澄清一下,只有当你有理由相信不同的输入特征具有不同的尺度(或单位),但它们对学习算法的重要性应大致相同时,才有意义应用这种预处理。对于图像,像素的相对尺度已经大致相等(且在0到255的范围内),因此执行这个额外的预处理步骤并不是严格必要的。在此处查找更多信息

小批次内的归一化通常称为“批量归一化”,其想法是为了解决梯度消失/爆炸问题以及在训练过程中每一层输入的分布随着前一层参数的变化而变化的问题。通过在每层之前进行零中心和归一化,网络学会应对这种“内部协变量偏移”。在此处查找更多信息

附注:零中心处理作为预处理步骤,可以通过除以标准差或根据分布的最小/最大值进行缩放来完成(这通常是在所有通道/特征上进行的,具体取决于你的数据以及你是否希望它们对训练产生相同的影响,当然也有例外情况)。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注