我有一个4000万行22列的整数数据的numpy数组,用于分类任务。大多数特征都是分类数据,使用不同的整数值来表示不同的类别。例如,在“颜色”列中:0表示蓝色,1表示红色,依此类推。我已经使用LabelEncoder对数据进行了预处理。
- 将这些数据拟合到SK-learn的任何分类模型中是否合理?我尝试将数据拟合到随机森林模型中,但准确率极差。我还尝试使用独热编码将数据转换为虚拟变量,但我的电脑在使用独热编码后只能处理稀疏矩阵,问题是随机森林只能接受密集矩阵,这将超过我的电脑内存。
- 在SK-learn中处理分类数据的正确策略是什么?
回答:
LabelEncoder
在你的情况下是无用的,因为输出数字作为数字没有任何意义(即,对它们进行算术运算毫无意义)。处理分类数据时,OneHotEncoder
是必不可少的。
最近sklearn 支持了随机森林和决策树的稀疏输入,所以你可能想查看最新版本。此外,其他方法如LogisticRegression 也支持稀疏数据。
此外,我认为你不需要使用全部4000万个样本来获得不错的准确率。随机抽取大约10万个样本应该就足够了(这个数字取决于独热编码后的特征数量、它们的变异性以及目标类的数量)。