在使用Scikit-learn调优随机森林模型时,我注意到即使使用相同的RandomForestClassifier实例和相同的数据作为输入,其准确性分数在不同运行后也是不同的。我尝试使用谷歌和StackExchange的搜索功能,但唯一找到的与此问题略微相似的情况是这个帖子,但那里的问题是没有正确设置随机状态就实例化分类器,这与我的问题不符。
我使用的代码如下:
clf = RandomForestClassifier( n_estimators=65, max_features = 9, max_depth= 'sqrt', random_state = np.random.RandomState(123) )X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.3, random_state = np.random.RandomState(159) )clf.fit(X_train, y_train)y_pred=clf.predict(X_test)
X和y是我的数据和对应的标签,但我发现数据集对问题没有影响。每当我运行train_test_split那一行时,我每次得到的分割都是相同的,所以这里没有随机性。使用相同的拟合模型运行predict()也每次都给出相同的结果,这表明我的问题与我上面链接的帖子不同。然而,每次运行fit()后,predict()会给出不同的预测!即使我不更改X_train和y_train也会发生这种情况。所以仅运行这两行代码
clf.fit(X_train, y_train)y_pred = clf.predict(X_test)
每次都会得到不同的结果。据我从文档中了解,.fit()不应该做任何随机操作。没有可重现的输出,就无法调优模型,所以我很确定这里有错误。我遗漏了什么吗?有人之前遇到过这种情况吗,或者有人知道为什么会发生这种情况吗?
回答:
如果你会重新运行拟合并且期望得到相同的结果,请不要使用numpy的RandomState
对象。请改用整数作为random_state
。
根据sklearn的术语表,使用numpy的RandomState
:
多次调用函数将重复使用同一个实例,并产生不同的结果。
RandomState
对象会被种子(用你的123),但随后在每次调用fit
时都会持续存在,继续获取新的随机数,而不会被重置。
快速检查:
clf = RandomForestClassifier(random_state=314)preds = {}for i in range(10): preds[i] = clf.fit(X, y).predict_proba(X)all(np.allclose(preds[i], preds[i+1]) for i in range(9))# > Trueclf = RandomForestClassifier(random_state=np.random.RandomState(314))preds = {}for i in range(10): preds[i] = clf.fit(X, y).predict_proba(X)all(np.allclose(preds[i], preds[i+1]) for i in range(9))# > False