我正在尝试在泰坦尼克数据集(pandas数据框)的一个子集上使用sklearn的OneHotEncoder。
文档中写道
“默认情况下,编码器会根据每个特征中的唯一值来推导类别。或者,您也可以手动指定类别。”
并且还指出我不需要指定类别,因为它是自动完成的
‘auto’ : 从训练数据中自动确定类别。(默认)
因此,我编写了以下代码:
print(x_train.head())enc = OneHotEncoder(handle_unknown="ignore")print("_____________")print(x_train.shape)x_train = enc.fit_transform(x_train)print(x_train.shape)print(x_train.toarray())
并得到以下输出
Pclass Sex Age SibSp Parch Fare Cabin Embarked845 3 male 42.000000 0 0 7.5500 None S162 3 male 26.000000 0 0 7.7750 None S630 1 male 80.000000 0 0 30.0000 A23 S176 3 male 29.699118 3 1 25.4667 None S115 3 male 21.000000 0 0 7.9250 None S_____________(712, 8)(712, 460)[[0. 0. 1. ... 0. 0. 1.] [0. 0. 1. ... 0. 0. 1.] [1. 0. 0. ... 0. 0. 1.] ... [0. 0. 1. ... 0. 0. 1.] [1. 0. 0. ... 0. 0. 1.] [0. 0. 1. ... 0. 0. 1.]]
因此,我可以看到添加了更多的特征(正如预期的那样),但实际上编码了哪些类别?所有类别吗?如果是的话,年龄有一个有限的“类别”数量,但显然不是分类变量。这不是问题吗?如果它使用pandas数据框的列类型来决定是否进行独热编码,那么对于类型为int但显然是分类变量的“Pclass”会发生什么情况呢?
回答:
您必须定义您的分类变量,然后将OneHotEncoder
应用于这些特征。
如果您不定义分类特征,OneHotEncoder将对所有特征(无论是否为分类)进行编码。
因此,我强烈建议您事先定义分类特征,并对其应用OneHotEncoder。