Softmax MLP分类器 – 隐藏层应使用哪种激活函数?

我正在从头开始编写一个单层的多层感知器,仅包含输入层、隐藏层和输出层。输出层将使用softmax激活函数来生成多个互斥输出的概率。

在我看来,隐藏层不适合使用softmax激活函数 – 这是正确的吗?如果是这样,我可以使用其他非线性激活函数,比如sigmoid或tanh吗?或者我甚至可以不使用任何激活函数,直接将隐藏节点的值保持为输入节点和输入到隐藏层的权重的线性组合吗?


回答:

在我看来,隐藏层不适合使用softmax激活函数 – 这是正确的吗?

确实是正确的。

如果是这样,我可以使用其他非线性激活函数,比如sigmoid或tanh吗?

可以,但大多数现代方法会建议使用整流线性单元(ReLU),或其变体(如Leaky ReLU、ELU等)。

或者我甚至可以不使用任何激活函数,直接将隐藏节点的值保持为输入节点和输入到隐藏层的权重的线性组合吗?

不行。非线性激活函数确实是防止(可能很大)神经网络表现得像单个线性单元的原因;可以证明(见Andrew Ng在Coursera的相关讲座为什么需要非线性激活函数?):

事实证明,如果你使用线性激活函数,或者不使用激活函数,那么无论你的神经网络有多少层,它所做的始终是计算一个线性激活函数,所以你还不如没有隐藏层。

重点是线性隐藏层基本上是无用的,因为两个线性函数的组合本身就是一个线性函数;因此,除非你加入非线性,否则即使在网络中深入,你也无法计算更有趣的函数。

实际上,唯一可以使用线性激活函数的地方是用于回归问题的输出层(也在上面链接的讲座中解释)。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注