如何通过语义关系搜索Word2Vec或GloVe嵌入以查找单词

展示词嵌入优势的常见例子是展示一些单词之间的语义关系,例如king:queen = male:female。这种关系是如何被发现的?是否通过某种基于几何聚类的可视化手段?任何建议都将受到欢迎。


回答:

如果“发现”是指监督学习,那么存在一些包含大量已提取关系的数据集,比如“城市-州”、“世界首都”、“最高级”等。

这个数据集是用于完成词向量类比的词向量内在评估的热门选择。另见这个问题

有效地无监督提取这些关系可能很棘手。一个简单的算法需要O(n2)的时间和内存,其中n是词汇表中的单词数量,这是一个巨大的数字。一般来说,这个问题归结为有效的索引构建。

但如果你只是想自己训练并玩转词嵌入,你可以简单地使用gensim

model = gensim.models.word2vec.Word2Vec(sentences=sentences, size=100, window=4,                                        workers=5, sg=1, min_count=20, iter=10)word_vectors = model.wvsimilar = word_vectors.most_similar(positive=['woman', 'king'], negative=['man'])# [(u'queen', 0.7188869714736938), (u'empress', 0.6739267110824585), ...

请注意,你需要一个大的语料库,比如text8

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注