你好,由于数据集不平衡,我试图在Sklearn中对VotingClassifier使用RandomizedSearch,并使用fit_params(用于GradientBoostingClassifier的sample_weight)。能否有人给我一些建议,并可能提供代码示例?
我目前未能工作的代码如下:
random_search = RandomizedSearchCV(my_votingClassifier, param_distributions=param_dist, n_iter=n_iter_search, n_jobs=-1, fit_params={'sample_weight':y_np_array})
错误:
TypeError: fit() got an unexpected keyword argument 'sample_weight'
回答:
考虑到似乎没有直接的方法通过VotingClassifier
传递sample_weight
参数,我发现了这个小“技巧”:
覆盖底层分类器的fit
方法。例如,如果你使用DecisionTreeClassifier
,你可以通过传递所需的sample_weight
参数来覆盖它的fit
方法。
class MyDecisionTreeClassifier(DecisionTreeClassifier): def fit(self, X , y = None): return super(DecisionTreeClassifier, self).fit(X,y,sample_weight=y)
现在在你的VotingClassifier
的分类器集合中,你可以使用你自己的MyDecisionTreeClassifier
。
完整的工作示例:
import numpy as npfrom sklearn.ensemble import RandomForestClassifierfrom sklearn.ensemble import VotingClassifierfrom sklearn.tree import DecisionTreeClassifierfrom sklearn.grid_search import RandomizedSearchCVX = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])y = np.array([1, 1, 1, 2, 2, 2])class MyDecisionTreeClassifier(DecisionTreeClassifier): def fit(self, X , y = None): return super(DecisionTreeClassifier, self).fit(X,y,sample_weight=y)clf1 = MyDecisionTreeClassifier()clf2 = RandomForestClassifier() params = {'dt__max_depth': [5, 10],'dt__max_features':[1,2]} eclf = VotingClassifier(estimators=[('dt', clf1), ('rf', clf2)], voting='hard')random_search = RandomizedSearchCV(eclf, param_distributions=params,n_iter=4)random_search.fit(X, y)print(random_search.grid_scores_)print(random_search.best_score_)