自定义Spacy NER模型整体F分数与单个实体F分数之间存在较大差异

我正在使用Spacy训练一个自定义的NER模型,训练数据为5000条文本条目,包含6个实体。在对未见过的500条文本样本进行评估时,我得到的整体模型F分数(93.8)与任何单个实体的F分数之间存在较大的差异。能有人帮我理解整体F分数是如何计算的,以及为什么整体F分数与单个实体分数之间有如此大的差异吗?

我使用Spacy构建了自己的自定义命名实体识别(NER)模型。我的训练数据集大小为5000,包含6个实体。此外,我在500个样本上测试了我的模型,并使用ScorerGoldParse对模型进行了评估。

这是我在测试数据上评估性能的代码 –

def evaluate(ner_model, examples):    scorer = Scorer()    for input_, annot in examples:        doc_gold_text = ner_model.make_doc(input_)        gold = GoldParse(doc_gold_text, entities=annot.get('entities'))        pred_value = ner_model(input_)        scorer.score(pred_value, gold)    return scorer.scores

这是我得到的结果 –

{'uas': 0.0, 'las': 0.0, 'ents_p': 93.62838106164233, 'ents_r':  93.95728476332452, 'ents_f': 93.79254457050243, 'ents_per_type': { 'ENTITY1': {'p': 6.467595956926736, 'r': 54.51002227171492, 'f':  11.563219748420247}, 'ENTITY2': {'p': 6.272470243289469, 'r': 49.219391947411665, 'f':  11.126934984520123},  'ENTITY3': {'p': 18.741109530583213, 'r': 85.02742820264602, 'f':  30.712745497989392},  'ENTITY4': {'p': 13.413228854574788, 'r': 70.58823529411765, 'f':  22.54284884283916},  'ENTITY5': {'p': 19.481765834932823, 'r': 82.85714285714286, 'f':  31.546231546231546}, 'ENTITY6': {'p': 24.822695035460992, 'r': 64.02439024390245, 'f': 35.77512776831346}}, 'tags_acc': 0.0, 'token_acc': 100.0}

你可以看到ents_f与任何其他实体类型的f之间存在较大的差异。模型的整体F分数与单个实体分数之间有什么关系?


回答:

我认为这是一个应该在下一个版本中修复的错误。你可以在这里查看详细信息:https://github.com/explosion/spaCy/issues/3968

Related Posts

在使用k近邻算法时,有没有办法获取被使用的“邻居”?

我想找到一种方法来确定在我的knn算法中实际使用了哪些…

Theano在Google Colab上无法启用GPU支持

我在尝试使用Theano库训练一个模型。由于我的电脑内…

准确性评分似乎有误

这里是代码: from sklearn.metrics…

Keras Functional API: “错误检查输入时:期望input_1具有4个维度,但得到形状为(X, Y)的数组”

我在尝试使用Keras的fit_generator来训…

如何使用sklearn.datasets.make_classification在指定范围内生成合成数据?

我想为分类问题创建合成数据。我使用了sklearn.d…

如何处理预测时不在训练集中的标签

已关闭。 此问题与编程或软件开发无关。目前不接受回答。…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注