我正在参加Kaggle的旧金山犯罪竞赛,目前正在尝试多种不同的分类器来测试基准性能。我使用了来自sklearn的LogisticRegressionClassifier,没有进行任何参数调整,我从sklearn.metrics.classification_report中注意到,它只预测主要类别,即在我的训练集中出现次数最多的类别。
直觉告诉我这可能与参数调整有关,但我不知道应该调整哪些参数来使分类器更能识别不太常见的类别(LogisticRegressionClassifier有很多参数)。目前它只预测了38个类别中的3个左右,所以肯定需要改进。
有什么建议吗?
回答:
如果你的模型只分类主要类别,那么你面临的是类别不平衡的问题。这里有一些不错的阅读材料来解决机器学习中的这一问题。
逻辑回归是一个二元分类器,使用一对多或一对一技术进行多类分类,如果你的输出类别较多(在你的情况中有33个),这种方法并不理想。尝试使用其他分类器。首先,可以使用softmax分类器,这是逻辑分类器的扩展,支持多类分类。在scikit-learn中,将multi_class
变量设置为multinomial
以使用softmax回归。
改进模型的另一种方法可以是使用GridSearch进行参数调整。
顺便提一下,我建议你也尝试其他模型。