我在使用卷积神经网络进行文本分类。我的项目使用了健康文档(ICD-9-CM编码),并采用了dennybritz使用的相同模型,但我的数据有36个标签。我使用one_hot编码来编码我的标签。
我的问题是,当我运行每个文档只有一个标签的数据时,我的代码准确率非常高,从0.8到1。但是当我运行每个文档有多个标签的数据时,准确率显著下降。
例如:一个文档只有一个标签"782.0"
:[0 0 1 0 ... 0]
,
一个文档有多个标签"782.0 V13.09 593.5"
:[1 0 1 0 ... 1]
。
有人能建议为什么会这样以及如何改进吗?
回答:
标签编码看起来是正确的。如果你有多个正确的标签,[1 0 1 0 ... 1]
看起来完全没问题。Denny的文章中使用的损失函数是tf.nn.softmax_cross_entropy_with_logits
,这是用于多类别问题的损失函数。
计算logits和标签之间的softmax交叉熵。
测量在类别互斥的离散分类任务中的概率误差(每个条目仅属于一个类别)。
在多标签问题中,你应该使用tf.nn.sigmoid_cross_entropy_with_logits
:
计算给定logits的sigmoid交叉熵。
测量在每个类别独立且非互斥的离散分类任务中的概率误差。例如,可以进行多标签分类,其中一张图片可以同时包含大象和狗。
损失函数的输入将是logits(WX
)和目标(标签)。
修正准确率度量
为了正确测量多标签问题的准确率,需要更改下面的代码。
# 计算准确率with tf.name_scope("accuracy"): correct_predictions = tf.equal(self.predictions, tf.argmax(self.input_y, 1)) self.accuracy = tf.reduce_mean(tf.cast(correct_predictions, "float"), name="accuracy")
上面的correct_predictions
逻辑在你可能有多个正确标签时是错误的。例如,假设num_classes=4
,标签0和2是正确的。因此你的input_y=[1, 0, 1, 0]
。correct_predictions
需要在索引0和索引2之间做出选择。我不确定tf.argmax
如何打破平局,但如果它通过选择较小的索引来打破平局,那么预测标签2总是被认为是错误的,这肯定会损害你的准确率度量。
实际上,在多标签问题中,精确率和召回率是比准确率更好的度量标准。你也可以考虑使用precision@k(tf.nn.in_top_k
)来报告分类器性能。