我正在使用文本分类来区分方言。然而,我注意到我必须像这样使用CountVectorizer:
from sklearn.feature_extraction.text import CountVectorizer vectorizer = CountVectorizer(max_features=200, min_df=2, max_df=0.7, stop_words=stopwords.words('arabic')) X = vectorizer.fit_transform(X).toarray()
结果是,我必须为CSV文件中的每一行创建一个新的文本文件。我从Twitter上收集了1000条推文,它们是有标签的,并且我将它们存储在一个CSV文件中。
我有两个问题:
- 我必须这样做吗?将每一行分开存放在一个文本文件中?还是我可以直接使用数据框?
- 在文本分类中我必须使用CountVectorizer吗?还有其他方法吗?
回答:
-
不,你不需要将每一行分开存放在一个新的文本文件中。如果你查看官方scikit-learn文档的例子https://scikit-learn.org/stable/modules/generated/sklearn.feature_extraction.text.CountVectorizer.html,你会看到如何操作。如果你想按照那个例子做,你需要将数据框中推文的CSV列转换为列表,并以文档示例中的方式传递给函数。
-
不,你不需要使用CountVectorizer。有几种其他方法可以做到这一点,比如Tf-IDF、Word2Vec、词袋模型等。有几种将文本转换为向量以进行分类的办法。在你的情况下,我认为TF-IDF或Word2Vec会很好用。