我正在处理一个文本摘要的问题,即给定一大段或多段文本,我希望找出最能代表这些文本的“主题”或主题。为此,我使用了各种信息论度量方法,如TF-IDF、残差IDF和点-wise互信息来为我的语料库创建一个“词典”。这个词典包含了文本中提到的重要词汇。
我手动筛选了整个50,000个短语列表,这些短语是按它们的TFIDF度量排序的,并手动挑选了2,000个短语(我知道!这花了我15个小时…),这些短语是确定的真实情况,即这些短语确实重要。现在,当我使用这个词典并对我的文本进行简单的频率分析,提取前k个短语时,我基本上能看到主题是什么,并且我同意我所看到的。
现在,我该如何评估这种方法呢?这里没有涉及机器学习或分类。基本上,我使用了一些NLP技术来创建一个词典,仅使用这个词典进行简单的频率分析就能找到我想要的主题。然而,是否有正式的分析方法可以用来衡量我的系统的准确性或其他方面呢?
回答:
我不是机器学习专家,但我会使用交叉验证。例如,如果你使用了1000页的文本来“训练”算法(虽然有“人工参与”,但没问题),那么你可以再拿几百页的测试文本,使用你的“前k个短语算法”来找出这些文本的“主题”或“主题”。你同意算法结果的测试页面的比例给你提供了一个(有些主观的)衡量方法表现的指标。