神经网络总是比逻辑回归分类器表现得更好吗?

我刚刚开始学习机器学习,并正在探索不同的算法。我从网上获取了一个二元分类问题,并尝试应用了各种机器学习技术。

首先,我尝试使用朴素贝叶斯分类器,结果成功率约为75%。接着我尝试了逻辑回归,结果惊人的达到了90%的成功率。我对分类器应用了正则化,并在改变Lambda(正则化参数)时,测试了30个值,得到了如下曲线。plot。红色曲线是训练集,蓝色曲线是验证集。正如你所见,两条曲线的误差随着Lambda的增加而增加。我认为这表明我的假设最初就是欠拟合的,并且随着Lambda的增加,欠拟合变得更严重。这是正确解读这种情况的方式吗?

无论如何,为了解决欠拟合问题,使用一个更复杂的模型是合理的,所以我转而使用了神经网络。我的初始问题有31个特征来描述,我选择了一个具有两个隐藏层且每个隐藏层有10个节点的神经网络。

训练后,我发现它只能正确分类65%的训练数据。这比朴素贝叶斯和逻辑回归还要差。这种情况常见吗?更有可能的是我的神经网络实现有什么问题吗?

有趣的是,神经网络似乎在经过25-30次迭代后就收敛了。我的逻辑回归用了300次迭代才收敛。我也考虑了神经网络可能陷入局部最小值的可能性,但根据我正在学习的Andrew NG的优秀机器学习课程,这种情况不太可能发生。

根据课程的解释,神经网络通常比逻辑回归提供更好的预测,但可能会遇到过拟合的问题。然而,我不认为这里的问题是过拟合,因为65%的成功率是在训练集上测得的。

我需要重新检查我的神经网络实现,还是这可能发生的情况?


回答:

首先,请尝试使用更大的隐藏层,例如每个层200个节点。然后更新你的结果,以便我们可以看到关键问题是什么。

当你使用神经网络对数据进行分类时,它实际上是在适合一个适合执行此任务的向量空间。在这种情况下,假设你的数据有31个维度,至少需要一个32维的空间才能完美地分类你的数据,如果没有样本同时属于正类和负类。因此,如果你在训练集上表现不佳,只需扩大你的神经网络,直到你在训练集上得到100%的结果,然后你可以开始考虑泛化问题。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注