为什么单层MLP在数字分类器中优于多层?

我在使用MNIST数据集和MLP分类器进行数字分类时观察到一种非常奇怪的行为。单层分类器的表现优于多层分类器。而在单层中增加神经元数量似乎能提高准确率。为什么多层分类器的表现不如单层?这是我的代码:

param_grid={'hidden_layer_sizes':[400,300,200,100,70,50,20,10]}grid=GridSearchCV(MLPClassifier(random_state=1),param_grid,cv=3,scoring='accuracy')grid.fit(train_data.iloc[:,1:],train_data.iloc[:,0])grid.grid_scores_

输出:

[mean: 0.97590, std: 0.00111, params: {'hidden_layer_sizes': 400}, mean: 0.97300, std: 0.00300, params: {'hidden_layer_sizes': 300}, mean: 0.97271, std: 0.00065, params: {'hidden_layer_sizes': 200}, mean: 0.97052, std: 0.00143, params: {'hidden_layer_sizes': 100}, mean: 0.96507, std: 0.00262, params: {'hidden_layer_sizes': 70}, mean: 0.96448, std: 0.00150, params: {'hidden_layer_sizes': 50}, mean: 0.94531, std: 0.00378, params: {'hidden_layer_sizes': 20}, mean: 0.92945, std: 0.00320, params: {'hidden_layer_sizes': 10}]

对于多层的情况:

param_grid={'hidden_layer_sizes':[[200],[200,100],[200,100,50],[200,100,50,20],[200,100,50,20,10]]}grid=GridSearchCV(MLPClassifier(random_state=1),param_grid,cv=3,scoring='accuracy')grid.fit(train_data.iloc[:,1:],train_data.iloc[:,0])grid.grid_scores_

输出:

[mean: 0.97271, std: 0.00065, params: {'hidden_layer_sizes': [200]}, mean: 0.97255, std: 0.00325, params: {'hidden_layer_sizes': [200, 100]}, mean: 0.97043, std: 0.00199, params: {'hidden_layer_sizes': [200, 100, 50]}, mean: 0.96755, std: 0.00173, params: {'hidden_layer_sizes': [200, 100, 50, 20]}, mean: 0.96086, std: 0.00511, params: {'hidden_layer_sizes': [200, 100, 50, 20, 10]}]

关于数据集:28*28像素的手写数字图像。


回答:

在我看来,你的模型可能出现了过拟合。你可以通过比较训练分数(使用参数return_train_score=True)和测试分数来验证这一点。

如果已经出现了过拟合,那么使你的神经网络更深或增加隐藏层的单元数可能会使情况变得更糟。因此,尝试获取更多数据和/或找到合适的alpha(正则化参数)来改善你的模型性能。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注