我正在尝试理解K折交叉验证,因为这是我第一次在文本分类中使用它。然而,我对如何在Python中实现它感到相当困惑。
我有一个数据框架,其中data
是我要预测的文本,label是预测值(0或1)。我目前使用了训练测试分割方法,并对向量化的数据使用了多项式朴素贝叶斯。
from sklearn import model_selectionfrom sklearn.naive_bayes import MultinomialNBfrom sklearn.feature_extraction.text import CountVectorizer# 将数据分割成训练和测试数据集X_train, X_test, y_train, y_test = model_selection.train_test_split(df['data'], df['label'], random_state=1)vect = CountVectorizer(ngram_range=(1,2), max_features=1000 , stop_words="english")X_train_dtm = vect.fit_transform(X_train)X_test_dtm = vect.transform(X_test)nb = MultinomialNB()nb.fit(X_train_dtm, y_train)y_pred_class = nb.predict(X_test_dtm)
我只是想知道如何以类似的方式实现5折验证。我查看了很多例子,但作为初学者,我不太清楚如何正确地实现它。
回答:
这里是一个如何使用KFold
的代码示例:
X, y = df['data'], df['label']metrics = []skf = StratifiedKFold(n_splits=5)for train_index, test_index in skf.split(X, y): X_train, X_test = X[train_index], X[test_index] y_train, y_test = y[train_index], y[test_index] vect = CountVectorizer(ngram_range=(1,2), max_features=1000 , stop_words="English") X_train_dtm = vect.fit_transform(X_train) X_test_dtm = vect.transform(X_test) nb = MultinomialNB() nb.fit(X_train_dtm, y_train) y_pred_class = nb.predict(X_test_dtm) metrics.append(accuracy_score(y_test, y_pred_class))metrics = numpy.array(metrics)print('平均准确率: ', numpy.mean(metrics, axis=0))print('准确率的标准差: ', numpy.std(metrics, axis=0))
- 主要思想是你可以通过5次实验来测量模型性能。
- 你不仅可以评估
平均准确率
,还可以评估标准差
– 标准差越小,模型越好。 - 最好使用
StratifiedKFold
而不是KFold
。