Batch Normalization vs Batch Renormalization

作为一个统计学背景不强的人,能否有人向我解释一下批量归一化(batch normalization)的主要限制是什么,以及批量重新归一化(batch renormalization)旨在解决这些限制,特别是它与批量归一化有何不同?


回答:

简而言之,批量归一化只是将每个批次重新缩放到一个共同的均值和偏差。每个批次是独立缩放的。批量重新归一化则将之前的归一化参数纳入新的计算中,使得每个批次都归一化到所有批次共有的标准。这样做逐步接近全局归一化,防止偏离中心的批次使训练偏离所需的中心。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注