多标签文本分类

我在使用卷积神经网络进行文本分类。我的项目使用了健康文档(ICD-9-CM编码),并采用了dennybritz使用的相同模型,但我的数据有36个标签。我使用one_hot编码来编码我的标签。

我的问题是,当我运行每个文档只有一个标签的数据时,我的代码准确率非常高,从0.8到1。但是当我运行每个文档有多个标签的数据时,准确率显著下降。

例如:一个文档只有一个标签"782.0"[0 0 1 0 ... 0]
一个文档有多个标签"782.0 V13.09 593.5"[1 0 1 0 ... 1]

有人能建议为什么会这样以及如何改进吗?


回答:

标签编码看起来是正确的。如果你有多个正确的标签,[1 0 1 0 ... 1]看起来完全没问题。Denny的文章中使用的损失函数是tf.nn.softmax_cross_entropy_with_logits,这是用于多类别问题的损失函数。

计算logits和标签之间的softmax交叉熵。

测量在类别互斥的离散分类任务中的概率误差(每个条目仅属于一个类别)。

在多标签问题中,你应该使用tf.nn.sigmoid_cross_entropy_with_logits

计算给定logits的sigmoid交叉熵。

测量在每个类别独立且非互斥的离散分类任务中的概率误差。例如,可以进行多标签分类,其中一张图片可以同时包含大象和狗。

损失函数的输入将是logits(WX)和目标(标签)。

修正准确率度量

为了正确测量多标签问题的准确率,需要更改下面的代码。

# 计算准确率with tf.name_scope("accuracy"):    correct_predictions = tf.equal(self.predictions, tf.argmax(self.input_y, 1))    self.accuracy = tf.reduce_mean(tf.cast(correct_predictions, "float"), name="accuracy")

上面的correct_predictions逻辑在你可能有多个正确标签时是错误的。例如,假设num_classes=4,标签0和2是正确的。因此你的input_y=[1, 0, 1, 0]correct_predictions需要在索引0和索引2之间做出选择。我不确定tf.argmax如何打破平局,但如果它通过选择较小的索引来打破平局,那么预测标签2总是被认为是错误的,这肯定会损害你的准确率度量。

实际上,在多标签问题中,精确率和召回率是比准确率更好的度量标准。你也可以考虑使用precision@k(tf.nn.in_top_k)来报告分类器性能。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注