我正在使用sentiment140数据集,该数据集包含160万条推文,用于训练并分析Python中scikit-learn库中不同分类器的准确性。我使用以下代码片段将推文向量化为特征向量,然后将它们输入到分类器中。
vectorizer = CountVectorizer(max_features = 2000)train_set = (vectorizer.fit_transform(trainX)).toarray()
之后,我训练我的classifier
对象,其中包括GaussianNB()
、MultinomialNB()
、BernoulliNB()
、LogisticRegression()
、LinearSVC()
和RandomForestClassifier()
,使用以下代码片段:
classifier.fit(train_vectors,trainy)
然而,当我将向量化器转换后的集合转换为使用toarray()
函数的numpy数组时,对于trainset
,我发现程序消耗了大量的内存(约4-5 GB),仅用于10万个样本,每个样本的特征向量大小为2000,即100,000×2000的特征向量。
这是我的系统所能承受的最大值,因为我的内存只有8GB。有人能提供建议,告诉我如何通过修改代码来训练整个160万的训练数据集,同时在现有内存下进行操作吗?如果我尝试使用上述代码,将需要大约72 GB的内存,这是不现实的。
我还了解到,可以通过迭代地使用训练集的一部分来增量训练某些分类器。像MultinomialNB()
和BernoulliNB()
这样的分类器有这样的功能(使用partial_fit
),但我使用的其他分类器没有,所以这不是一个选项。
回答:
问题是,你首先想要实现什么?我问这个的原因是,向量化的文本由于问题的本质而具有大量的维度。此外,max_features=2000
在文本分类中不会达到足够的性能。
长话短说:你提到的多数分类器可以处理稀疏向量,除了GaussianNB
,这可以通过以下方式轻松验证:
from sklearn.naive_bayes import GaussianNB, MultinomialNB, BernoulliNBfrom sklearn.linear_model import LogisticRegressionfrom sklearn.svm import LinearSVCfrom sklearn.ensemble import GradientBoostingClassifierfrom scipy.sparse import csr_matrixfrom sklearn.datasets import load_digitsdigits = load_digits()X, y = digits.data, digits.targetfor CLF in [GaussianNB, MultinomialNB, BernoulliNB, LogisticRegression, LinearSVC, GradientBoostingClassifier]: print(CLF.__name__, end='') try: CLF().fit(csr_matrix(X), y == 0) print(' PASS') except TypeError: print(' FAIL')
输出结果为:
GaussianNB FAILMultinomialNB PASSBernoulliNB PASSLogisticRegression PASSLinearSVC PASSGradientBoostingClassifier PASS
我建议,你可以简单地从列表中删除GaussianNB
,并使用支持稀疏向量的分类器。你至少应该能够在8GB的限制内处理更多的样本。
另见scikit-learn的这个问题,引用Jake Vanderplas的话:
在
GaussianNB
中未实现稀疏输入的一个原因是,非常稀疏的数据几乎肯定不符合算法的假设——当大部分值为零时,简单的Gaussian分布并不适合数据,并且几乎永远不会导致有用的分类。