我有一个包含多个类别的数据集(tf-idf加权词),我尝试对其进行预测。我的类别是不平衡的。我希望使用One vs. rest分类方法,并结合一些分类器(例如多项式朴素贝叶斯),使用sklearn的OneVsRestClassifier。
此外,我还想使用imbalanced-learn包(最有可能使用上采样和下采样的某种组合)来增强我的数据。使用imbalanced-learn的常规方法是:
from imblearn.combine import SMOTEENNsmote_enn = SMOTEENN(random_state=0)X_resampled, y_resampled = smote_enn.fit_resample(X, y)
现在我有一个数据集,每个标签的案例数量大致相同。然后我会在重新采样的数据上使用分类器。
from sklearn.multiclass import OneVsRestClassifierfrom sklearn.naive_bayes import MultinomialNBovr = OneVsRestClassifier(MultinomialNB())ovr.fit(X_resampled, y_resampled)
但是:现在当进行拟合时,每个标签都有很大的不平衡,因为我总共有超过50个标签。对吗?我认为我需要对每个标签应用上采样/下采样方法,而不是在开始时只做一次。我该如何对每个标签使用重新采样方法呢?
回答:
根据评论中的讨论,你想要的可以这样做:
from sklearn.naive_bayes import MultinomialNBfrom imblearn.combine import SMOTEENN# 注意我是如何从IMBLEARN而不是SKLEARN导入Pipeline的from imblearn.pipeline import Pipelinefrom sklearn.multiclass import OneVsRestClassifier# 这个管道将重新采样数据并# 将输出传递给MultinomialNBpipe = Pipeline([('sampl', SMOTEENN()), ('clf', MultinomialNB())])# OVR将转换`y`如你所知,然后# 将单标签数据传递给pipe的不同副本# 多次(数据中标签的数量)ovr = OneVsRestClassifier(pipe)ovr.fit(X, y)
代码解释:
-
第一步:
OneVsRestClassifier
将为y
创建多个列。每个标签一个,其中该标签为正,其余所有为负。 -
第二步:对于每个标签,
OneVsRestClassifier
将克隆提供的pipe
估计器,并将单个数据传递给它。 -
第三步:
a.
pipe
的每个副本将获得y
的不同版本,该版本传递给其中的SMOTEENN
,因此将进行不同的采样以平衡那里的类别。b.
pipe
的第二部分(clf
)将获得你想要的每个标签的平衡数据集。 -
第四步:在预测时,采样部分将被关闭,因此数据将按原样到达
clf
。sklearn管道不处理那部分,这就是为什么我使用imblearn.pipeline
。
希望这对你有帮助。