我有一个丹麦语WordNet的.txt文件。是否有办法将其与Python的NLP库(如NLTK)一起使用?如果没有,那么如何处理一个给定库不支持的语言的自然语言处理?另外,假设你想在一个像spaCy这样的库中,对英语或荷兰语以外的语言进行命名实体识别。有没有办法做到这一点?
回答:
是否有办法将其与Python的NLP库(如NLTK)一起使用?
你可以用NLTK来做这件事,尽管这有点麻烦。
你需要将你的WordNet语料库转换为Open Multilingual Wordnet格式,这是一种简单的制表符分隔格式。请注意,他们已经有了丹麦语WordNet。
然后,如果你还没有这样做,你应该安装WordNet和Open Multilingual Wordnet语料库到NLTK中。这将创建一个像~/nltk_data/corpora/omw/
这样的目录,每个语言文件都有一个子目录。你需要通过为它创建一个目录并按以下方式命名你的文件来添加你的语料库:
~/nltk_data/corpora/omw/xxx/wn-data-xxx.tab
xxx
可以是任何东西,但它在两个地方必须相同。这个文件名模式在NLTK中是硬编码的,在这里可以看到。
之后,你可以通过指定xxx
作为lang
参数来使用你的WordNet。以下是来自文档的示例:
>>> wn.synset('dog.n.01').lemma_names('ita') # 将'ita'更改为'xxx'['cane', 'Canis_familiaris']
如何处理一个给定库不支持的语言的自然语言处理?
我经常用日语做这件事。
有些技术会查看你的标记内部——也就是说,它们会检查一个词是否是字面上的“说”或“是”或其他什么。这在词干提取器和词形还原器中很常见,原因显而易见。有些系统使用基于对特定语言中词性如何交互的假设的规则(通常是英语)。你可能能够将这些期望翻译成你的语言,但通常你无法使用这些。
然而,许多有用的技术根本不查看你的标记内部——它们只关心两个标记是否相等。这些通常主要依赖于标签或共现数据等特征。你可能需要预先标记你的数据,并且你可能想在该语言的维基百科上训练一个通用语言模型,但仅此而已。词向量、命名实体识别、文档相似性是语言支持通常不是问题的示例问题。
另外,假设你想在一个像spaCy这样的库中,对英语或荷兰语以外的语言进行命名实体识别。有没有办法做到这一点?
spaCy提供了自定义标签的功能来进行NER。将其与其他未支持的语言一起使用没有文档记录,并且会有点棘手。然而,由于NER不需要完整的语言模型,你可以使用带有标记示例的特定NER工具。
以下是基于CoNLL格式的CRF++的示例训练数据:
He PRP B-NPreckons VBZ B-VPthe DT B-NPcurrent JJ I-NPaccount NN I-NPdeficit NN I-NPwill MD B-VPnarrow VB I-VPto TO B-PPonly RB B-NP# # I-NP1.8 CD I-NPbillion CD I-NPin IN B-PPSeptember NNP B-NP. . OHe PRP B-NPreckons VBZ B-VP..
这种格式被多种CRF或其他NER工具支持。CRFSuite是其中一种,带有Python包装器。
对于这种数据,算法并不真正关心第一列的内容,因此语言支持不是问题。
希望这对你有帮助!