理解prelu权重

如果一个层的prelu权重接近1,而在其他层中它们接近0,如何理解这些prelu权重?

关于prelu的文献不多,任何帮助都将非常有用!


回答:

PRelu的公式是这个

prelu

如你所见,如果a被学习为接近0,那么f(x)几乎等于普通的relu,来自负激活的梯度不会改变网络。简单来说,网络并不“想”调整任何方向上的非活跃神经元。实际上,这也意味着你可以通过在这个层使用relu来加速训练。这种非线性确实很重要。

相反,当a大约为1时,f(x)几乎等于x,即它就像没有非线性一样。这意味着这一层可能是多余的,网络有足够的自由度在没有它的情况下做出决策边界。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注