在NLP中,我应该在train_test_split
之前还是之后进行文本数据的预处理和矩阵创建?下面是我在train_test_split
之前进行预处理和矩阵创建(tfidf)的示例代码。我想知道这样做是否会导致数据泄漏?
corpus = []for i in range(0 ,len(data1)): review = re.sub('[^a-zA-Z]', ' ', data1['features'][i]) review = review.lower() review = review.split() review = [stemmer.stem(j) for j in review if not j in set(stopwords.words('english'))] review = ' '.join(review) corpus.append(review)from sklearn.feature_extraction.text import TfidfVectorizercv = TfidfVectorizer(max_features = 6000)x = cv.fit_transform(corpus).toarray()from sklearn.preprocessing import LabelEncoderle = LabelEncoder()y = le.fit_transform(data1['label'])from sklearn.model_selection import train_test_splittrain_x, test_x, train_y, test_y = train_test_split(x, y, test_size = 0.2, random_state = 69, stratify = y)spam_model = MultinomialNB().fit(train_x, train_y)pred = spam_model.predict(test_x)c_matrix = confusion_matrix(test_y, pred)acc_score = accuracy_score(test_y, pred)
回答:
正如官方文档中提到的,带有max_features
参数的TfidfVectorizer
类只保留最佳的k个特征。
max_featuresint, default=None
如果不为None,构建一个仅考虑语料库中按词频排序的前max_features的词汇表。
如果你将测试集呈现给该类,它将有助于更有效地选择这些特征,这就是数据泄漏(这种情况基于你的问题,但在大多数情况下都可以看到!)。在机器学习中,最安全的方式是在预测/评估之前忽略测试集,想象它根本不存在!
[更新]你可以在这里看到一个来自Kaggle的示例,它在预分割的数据集上使用了向量化器这里!关于这个概念的更多信息,请参见这里和这里!