这里有一个初学者的NLP问题:
.similarity方法是如何工作的?
哇,SpaCy真是太棒了!它的tfidf模型可以更容易预处理,但只用一行代码(token.vector)就能使用w2v?! – 太厉害了!
在SpaCy的10行教程中,andrazhribernik向我们展示了.similarity方法,可以在词元、句子、词块和文档上运行。
在nlp = spacy.load('en')
和doc = nlp(raw_text)
之后,我们可以在词元和词块之间进行.similarity查询。然而,这个.similarity
方法背后到底计算了什么呢?
SpaCy已经有了非常简单的.vector
,它计算了从GloVe模型训练得到的w2v向量(如果有一个.tfidf
或.fasttext
方法会不会很酷?)。
模型相似度模型只是在计算这两个w2v-GloVe向量之间的余弦相似度,还是在做其他事情?在文档中没有清楚说明具体细节;任何帮助都将不胜感激!
回答:
假设你提到的是词元相似度方法,你可以在源代码中找到这个函数,在这里。如你所见,它计算的是向量之间的余弦相似度。
正如教程中所说:
词嵌入是对一个词的表示,进而是对整个语言语料库的表示,形式为向量或其他数值映射。这使得可以将词以数值方式处理,词的相似性表现为词嵌入映射维度上的空间差异。
因此,向量距离可以与词的相似性相关联。