使用Python解释OneHotEncoder

我刚开始使用scikit-learn库,并尝试用它来预测股票价格。我在阅读其文档时,卡在了解释OneHotEncoder()的部分。他们使用的代码如下:

>>> from sklearn.preprocessing import OneHotEncoder>>> enc = OneHotEncoder()>>> enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]])  OneHotEncoder(categorical_features='all', dtype=<... 'numpy.float64'>,       handle_unknown='error', n_values='auto', sparse=True)>>> enc.n_values_array([2, 3, 4])>>> enc.feature_indices_array([0, 2, 5, 9])>>> enc.transform([[0, 1, 1]]).toarray()array([[ 1.,  0.,  0.,  1.,  0.,  0.,  1.,  0.,  0.]])

能否有人一步一步地向我解释这里发生了什么?我对One Hot Encoder的工作原理有清晰的理解,但无法弄明白这段代码是如何工作的。任何帮助都将不胜感激。谢谢!


回答:

首先,让我们写下你所期望的结果(假设你知道什么是One Hot Encoding)

未编码

f0 f1 f20, 0, 31, 1, 00, 2, 11, 0, 2

已编码

|f0|  |  f1 |  |   f2   |1, 0, 1, 0, 0, 0, 0, 0, 1 0, 1, 0, 1, 0, 1, 0, 0, 01, 0, 0, 0, 1, 0, 1, 0, 00, 1, 1, 0, 0, 0, 0, 1, 0

要得到已编码的结果:

enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]]),

如果你使用默认的n_values='auto'。使用默认值=’auto’,你是在指定你的特征(未编码的列)可能采取的值可以从传递给fit的数据列中推断出来。

这就引出了enc.n_values_

根据文档:

每个特征的值的数量。

enc.n_values_array([2, 3, 4])

以上意味着f0(第一列)可以取2个值(0, 1),f1可以取3个值(0, 1, 2),f2可以取4个值(0, 1, 2, 3)。

确实,这些是从未编码特征矩阵中的特征f1, f2, f3的值。

然后,

enc.feature_indices_array([0, 2, 5, 9])

根据文档:

特征范围的索引。原始数据中的特征i映射到特征_indices_[i]到feature_indices_[i+1]的特征(然后可能被active_features_屏蔽)。

给出的是特征f1, f2, f3在编码空间中可以采取的位置范围。

f1: [0, 1], f2: [2, 3, 4], f3: [5, 6, 7, 8]

将向量[0, 1, 1]映射到one hot编码空间(根据我们从enc.fit得到的映射):

1, 0, 0, 1, 0, 0, 1, 0, 0

如何做到的?

第一个特征在f0,所以映射到位置0(如果元素是1而不是0,我们会将其映射到位置1)。

下一个元素1映射到位置3,因为f1从位置2开始,而元素1是f1可能取的第二个值。

最后,第三个元素1占据位置6,因为它是f2可能取的第二个值,而f2从位置5开始映射。

希望这能澄清一些问题。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注