高效从文本中提取WikiData实体

我有大量的文本(数百万),每个文本的长度在100到4000个单词之间。这些文本格式为书面作品,包含标点和语法。所有文本均为英文。

问题很简单:如何从给定文本中提取每一个WikiData实体?

实体被定义为每一个名词,无论是专有名词还是普通名词。即,人名、组织、地点以及诸如椅子土豆等物品的名称。

到目前为止,我尝试了以下方法:

  1. 使用OpenNLP对文本进行分词,并使用预训练模型提取人名地点组织和普通名词
  2. 在适用情况下应用Porter词干提取
  3. 将所有提取的名词与wmflabs-API匹配,以检索潜在的WikiData ID。

这种方法有效,但我觉得可以做得更好。一个明显的改进是将相关WikiData片段本地缓存,我计划这样做。然而,在我这样做之前,我想看看是否有其他解决方案。

有什么建议吗?

我标记了Scala标签,因为我使用Spark来完成这项任务。


回答:

一些建议:

  • 考虑使用Stanford NER与OpenNLP进行比较,看看在你的语料库上表现如何
  • 我怀疑对大多数实体名称进行词干提取的价值
  • 我怀疑你可能通过将任务分成离散阶段而丢失信息
  • 尽管WikiData是新的,但任务本身并不新,因此你可以查看关于Freebase|DBpedia|Wikipedia实体识别|消歧的论文

特别是,DBpedia Spotlight就是专门为此任务设计的一个系统。

http://static.googleusercontent.com/media/research.google.com/en//pubs/archive/38389.pdfhttp://ceur-ws.org/Vol-1057/Nebhi_LD4IE2013.pdf

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注