我在研究一些深度学习技术时,发现了一种不使用反向传播的方法(https://arxiv.org/abs/1706.02480)。这种方法的基本思路是训练浅层单隐藏层,丢弃输出层,并在已训练的(第一个)隐藏层与新的输出层之间添加另一个隐藏层。重复这个过程(添加和训练),直到满足某些标准。我试图使用sklearn提供的MLP分类器来实现这种方法。我面临的问题是如何获取隐藏层的输出。例如,如果我使用
mlp = MLPClassifier()mlp.predict(data)
,它会给我整个网络的输出。然而,我需要的是网络隐藏层的子输出。为了说明这一点:
输入 –> 连接1(权重) –> 隐藏层 –> 连接2(权重) –> 输出 (–> 预测)
我目前需要的不是输出预测,而是从隐藏层(隐藏层与连接2之间)出来的结果。我知道隐藏层(连接1和隐藏层之间)的输入可以通过
np.matmul(data, mlp.coefs_[0]) + mlp.intercepts_[0]
来计算。有什么方法可以获取隐藏层的结果吗?
回答:
你误解了这些概念的含义。
输入是你传入的数据。
第一个隐藏层由模型参数 W1 和 b1 组成。
隐藏层的输出是 f(W1Tx + b1),其中 f
是你的激活函数。
这随后成为第二个隐藏层的输入,该层由模型参数 W2 和 b2 组成。依此类推……
所以,准确地说
from sklearn.neural_network._base import ACTIVATIONSACTIVATIONS['relu'](np.matmul(data, mlp.coefs_[0]) + mlp.intercepts_[0]))
就是你要找的。