我正在进行一个多类分类任务,目的是根据客户的购买行为和人口统计数据将其分为3个不同的类别。我无法完全披露数据集,但总体上它包含大约300个特征和50000行数据。我尝试了以下方法,但无法实现超过50%的准确率:
- 调整超参数(我使用了GridSearchCV后调优的超参数)
- 对数据集进行归一化处理,然后运行我的模型
- 尝试不同的分类方法:OneVsRestClassifier,随机森林分类,SVM,KNN和LDA
- 我还移除了不相关的特征,并尝试运行我的模型
- 我的类别是不平衡的,因此我还尝试使用class_weight = balanced,采用SMOTE进行过采样,下采样和重新采样。
还有其他方法可以尝试以提升性能(F分数,精确度和召回率)吗?
回答:
尝试调整以下参数
n_estimators
这是你希望构建的树的数量,在进行最大投票或平均预测之前。更多的树可以提供更好的性能,但会使你的代码运行得更慢。你应该选择尽可能高的值,只要你的处理器能处理,因为这会使你的预测更强大和稳定。由于你的数据量较大,每次迭代会花费更多时间,但请尝试一下。
max_features
这是随机森林在单个树中允许尝试的最大特征数。在Python中有多种选项来分配最大特征。其中一些是:
-
Auto/None:这将简单地在每棵树中使用所有特征。在这里,我们对单个树没有任何限制。
sqrt:此选项将在单次运行中取总特征数的平方根。例如,如果总变量数为100,我们只能在单个树中使用10个。“log2”是另一个类似的max_features选项。
0.2:此选项允许随机森林在单次运行中使用20%的变量。我们可以分配一个“0.x”格式的值,其中我们希望考虑x%的特征。
min_sample_leaf
叶子是决策树的末端节点。较小的叶子使得模型更容易捕捉到训练数据中的噪声。你可以从一个最小值如75开始,然后逐渐增加它。看看哪个值能带来更高的准确率。