我正在分析论文”使用基于维基百科的显式语义分析计算语义相关性”。
我在研究该系统的一个组成部分,即潜在语义分析与显式语义分析之间的区别。
我正在撰写一份文件来总结我的理解,但这些内容是从我不完全理解的来源拼凑而成的,所以我想知道我总结的内容是否准确,以下是我的总结:
在实施如奇异值分解(SVD)或马尔可夫链蒙特卡洛机器这样的过程时,可以根据文档语料库的固有特征进行划分,并通过对构成每个单一数据索引的特征应用不同的权重来分配到类别中。在这个高维空间中,往往难以确定导致结果或结果的因素组合,有趣的变量是“隐藏”或潜在的。通过定义一组人类可理解的类别,即以维基百科文章页面作为比较基础,[Gabrilovich等人2007]设计了一个系统,使得用于区分数据的标准易于理解,从文本中我们注意到“语义分析是显式的,因为我们操作的是基于人类认知的主观概念,而不是潜在语义分析中使用的‘潜在概念’”。这样我们就建立了显式语义分析与潜在语义分析的对立关系。
这是准确的吗?
关于这个话题的信息相当稀少。这个问题表面上处理的是类似的问题,但实际上并非如此。
回答:
潜在语义分析与所谓的显式语义分析之间的区别在于所使用的语料库以及建模词义的向量维度。
潜在语义分析从基于文档的词向量开始,这些向量捕捉每个词与其出现的文档之间的关联,通常使用如tf-idf的加权函数。然后,它使用奇异值分解将这些词向量的维度减少到(通常)300。与原始维度(对应于文档)不同,这些300个新维度没有直接的解释。因此,它们被称为“潜在”的。LSA随后可以通过组合文本中所有词的向量来对文本进行分类。
从你提到的论文中,我理解显式语义分析也是一个基于文档的模型:它根据词出现在的维基百科文章来建模词。然而,它与潜在语义分析的不同之处在于:(a)语料库(维基百科)不能自由选择,(b)不涉及降维处理。同样,文本中词的向量可以组合起来以对文本进行分类或其他解释。