如何在朴素贝叶斯中获取特征重要性?

我有一个包含正面/负面类别标签的评论数据集。我正在对这个评论数据集应用朴素贝叶斯算法。首先,我将其转换为词袋模型。这里 sorted_data[‘Text’] 是评论,final_counts 是一个稀疏矩阵

count_vect = CountVectorizer() final_counts = count_vect.fit_transform(sorted_data['Text'].values)

我将数据分成训练集和测试集。

X_1, X_test, y_1, y_test = cross_validation.train_test_split(final_counts, labels, test_size=0.3, random_state=0)

我应用朴素贝叶斯算法如下

optimal_alpha = 1NB_optimal = BernoulliNB(alpha=optimal_aplha)# fitting the modelNB_optimal.fit(X_tr, y_tr)# predict the responsepred = NB_optimal.predict(X_test)# evaluate accuracyacc = accuracy_score(y_test, pred) * 100print('\nThe accuracy of the NB classifier for k = %d is %f%%' % (optimal_aplha, acc))

这里 X_test 是测试数据集,其中 pred 变量告诉我们 X_test 中的向量属于正类还是负类。

X_test 的形状是(54626 行,82343 维度)

pred 的长度是 54626

我的问题是,我想获取每个向量中概率最高的词,这样我就可以通过这些词了解为什么它被预测为正类或负类。因此,如何获取每个向量中概率最高的词?


回答:

你可以通过使用 coefs_feature_log_prob_ 属性从拟合模型中获取每个词的重要性。例如

neg_class_prob_sorted = NB_optimal.feature_log_prob_[0, :].argsort()[::-1]pos_class_prob_sorted = NB_optimal.feature_log_prob_[1, :].argsort()[::-1]print(np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10]))print(np.take(count_vect.get_feature_names(), pos_class_prob_sorted[:10]))

打印每个类别中最具预测性的前10个词。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注