我在使用scikit-learn的LogisticRegression对象进行正则化的二元分类。我已经阅读了关于intercept_scaling
的文档,但我不明白如何智能地选择这个值。
数据集看起来像这样:
- 10-20个特征,300-500个样本
- 高度非高斯分布,实际上大多数观测值为零
- 输出类别不一定是等概率的。在某些情况下,它们几乎是50/50,在其他情况下,它们更像是90/10。
- 通常
C=0.001
能提供良好的交叉验证结果。
文档中警告说,截距本身也像其他特征一样受到正则化的影响,intercept_scaling
可以用来解决这个问题。但我应该如何选择这个值呢?一个简单的答案是探索C
和intercept_scaling
的许多可能组合,并选择性能最佳的参数。但这种参数搜索将花费相当长的时间,如果可能的话,我希望避免这种情况。
理想情况下,我希望使用截距来控制输出预测的分布。也就是说,我希望确保分类器在训练集上预测“类别1”的概率等于训练集中“类别1”数据的比例。我知道在某些情况下这是成立的,但我的数据并非如此。我不知道这是由于正则化还是由于输入数据的非高斯性质造成的。
感谢任何建议!
回答:
你是否尝试通过设置class_weight="auto"
来过采样正类?这实际上会过采样代表性不足的类别,并欠采样多数类别。
(当前稳定版文档有点令人困惑,因为它们似乎是从SVC
复制粘贴过来的,并没有为LR进行编辑;这在最新的版本中已经得到了改变。)