我正在使用scikit-learn从“词袋”文本中提取文本特征(文本按单个词进行分词)。为此,我使用了TfidfVectorizer,以减少非常频繁的词(例如:“a”, “the”等)的权重。
text = 'Some text, with a lot of words...'tfidf_vectorizer = TfidfVectorizer( min_df=1, # 相关词汇的最小计数 max_features=4000, # 特征的最大数量 strip_accents='unicode', # 将所有带重音的unicode字符替换为相应的ASCII字符 analyzer='word', # 由单词组成的特征 token_pattern=r'\w{4,}', # 仅对4个字符以上的词进行分词 ngram_range=(1, 1), # 由单个标记组成的特征 use_idf=True, # 启用逆文档频率重新加权 smooth_idf=True, # 防止未见词的零除错误 sublinear_tf=False)# 向量化并重新加权desc_vect = tfidf_vectorizer.fit_transform([text])
现在我想将每个预测的特征与其对应的tfidf
浮点值链接起来,并存储在一个字典中
{'feature1:' tfidf1, 'feature2': tfidf2, ...}
我通过使用以下方法实现了这一点
d = dict(zip(tfidf_vectorizer.get_feature_names(), desc_vect.data))
我想知道是否有更好的、scikit-learn原生的方法来做这件事。
非常感谢。
回答:
对于单个文档来说,这样做应该没问题。另一种方法,当文档集较小时,可以使用我这个配方,它使用了Pandas。
如果你想对多个文档执行此操作,那么你可以调整DictVectorizer.inverse_transform
中的代码:
desc_vect = desc_vect.tocsr()n_docs = desc_vect.shape[0]tfidftables = [{} for _ in xrange(n_docs)]terms = tfidf_vectorizer.get_feature_names()for i, j in zip(*desc_vect.nonzero()): tfidftables[i][terms[j]] = X[i, j]