反向传播和scikit-neuralnetwork中神经网络的结构

我正在使用scikit-neuralnetwork框架学习神经网络,并且我已经掌握了神经网络的基础知识,现在正尝试用scikit-learn来实现它。但我在两个问题上感到困惑。

1- 下面给出的这个神经网络的结构是什么?在一些例子中,我感觉有些人没有将输入层作为一个层来处理。否则,我认为这是一个有两层的NN,输入层有100个节点,输出层有一个节点。

from sknn.mlp import Classifier, Layernn = Classifier(   layers=[    Layer("Maxout", units=100, pieces=2),    Layer("Softmax")],learning_rate=0.001,n_iter=25)nn.fit(X_train, y_train)

2- scikit-neuralnetwork会在上述代码中进行反向传播吗?

谢谢!


回答:

1- 在scikit-neuralnetwork框架中,输入层并未显示出来,但在我们输入训练数据时,系统会在后台将其作为一层创建。

nn.fit(X_train, y_train)

例如,假设我们使用的是鸢尾花数据集。它有3个类别,因此如果是这种情况,框架会从y_train中理解这一点,并创建3个类别的输入层。

y_train = [0,0,0,1,2,]X_train = [[ 7.1  3.   5.9  2.1]           [ 5.9  3.   4.2  1.5]           [ 5.5  2.4  3.7  1. ]           [ 6.1  2.8  4.7  1.2]           [ 5.   2.3  3.3  1. ]]

除了最后一层,其他所有层都是隐藏层。我在操作最后一层时发现了这个问题

    nn = Classifier(    layers=[            Layer("Maxout", units=100, pieces=2),            Layer("Softmax",units=1)],   -----> 如果units是3就没问题!            learning_rate=0.001,            n_iter=25)    "数据集大小与输出层中的units不匹配。"    AssertionError: 数据集大小与输出层中的units不匹配。

2- 更详细的解释;感谢@robintibor在datascience.stackexchange上的回答。他在这里解释了这两个问题 解释

也感谢@user7534232的回答 🙂

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注