展示词嵌入优势的常见例子是展示一些单词之间的语义关系,例如king:queen = male:female
。这种关系是如何被发现的?是否通过某种基于几何聚类的可视化手段?任何建议都将受到欢迎。
回答:
如果“发现”是指监督学习,那么存在一些包含大量已提取关系的数据集,比如“城市-州”、“世界首都”、“最高级”等。
这个数据集是用于完成词向量类比的词向量内在评估的热门选择。另见这个问题。
有效地无监督提取这些关系可能很棘手。一个简单的算法需要O(n2)的时间和内存,其中n是词汇表中的单词数量,这是一个巨大的数字。一般来说,这个问题归结为有效的索引构建。
但如果你只是想自己训练并玩转词嵌入,你可以简单地使用gensim:
model = gensim.models.word2vec.Word2Vec(sentences=sentences, size=100, window=4, workers=5, sg=1, min_count=20, iter=10)word_vectors = model.wvsimilar = word_vectors.most_similar(positive=['woman', 'king'], negative=['man'])# [(u'queen', 0.7188869714736938), (u'empress', 0.6739267110824585), ...
请注意,你需要一个大的语料库,比如text8。