我正在使用scikit-neuralnetwork框架学习神经网络,并且我已经掌握了神经网络的基础知识,现在正尝试用scikit-learn来实现它。但我在两个问题上感到困惑。
1- 下面给出的这个神经网络的结构是什么?在一些例子中,我感觉有些人没有将输入层作为一个层来处理。否则,我认为这是一个有两层的NN,输入层有100个节点,输出层有一个节点。
from sknn.mlp import Classifier, Layernn = Classifier( layers=[ Layer("Maxout", units=100, pieces=2), Layer("Softmax")],learning_rate=0.001,n_iter=25)nn.fit(X_train, y_train)
2- scikit-neuralnetwork会在上述代码中进行反向传播吗?
谢谢!
回答:
1- 在scikit-neuralnetwork框架中,输入层并未显示出来,但在我们输入训练数据时,系统会在后台将其作为一层创建。
nn.fit(X_train, y_train)
例如,假设我们使用的是鸢尾花数据集。它有3个类别,因此如果是这种情况,框架会从y_train中理解这一点,并创建3个类别的输入层。
y_train = [0,0,0,1,2,]X_train = [[ 7.1 3. 5.9 2.1] [ 5.9 3. 4.2 1.5] [ 5.5 2.4 3.7 1. ] [ 6.1 2.8 4.7 1.2] [ 5. 2.3 3.3 1. ]]
除了最后一层,其他所有层都是隐藏层。我在操作最后一层时发现了这个问题
nn = Classifier( layers=[ Layer("Maxout", units=100, pieces=2), Layer("Softmax",units=1)], -----> 如果units是3就没问题! learning_rate=0.001, n_iter=25) "数据集大小与输出层中的units不匹配。" AssertionError: 数据集大小与输出层中的units不匹配。
2- 更详细的解释;感谢@robintibor在datascience.stackexchange上的回答。他在这里解释了这两个问题 解释
也感谢@user7534232的回答 🙂