我有一组大约40,000条推文的数据集。我还有5个文本文件,每个文件对应一个不同的类别,我希望将推文分类到这些类别中(如旅行、工作、假期等)。每个文本文件包含该类别的特定关键词。
例如,假期的文本文件(vacation.txt)包含“flight”、“beach”、“hotel”等词汇。
我想通过将这些文本文件中的关键词映射到相应的类别来标记我的数据集。
例如,包含“beach”一词的推文将被标记为假期。
我使用Python进行所有分析。推文保存在一个.csv文件中。
此外,还有什么其他有趣的方法可以用来标记和分类我的数据?我明白基于关键词的方法并不是最有效或最准确的。
回答:
可以有多种方法。
如果您只是使用关键词搜索来标记数据,我认为这不是一个更好的方法。
-
关键词方法。您将计算匹配的关键词数量,然后根据此分配标签,但在此您需要进行特征选择,以确保模型不会因关键词搜索而产生偏见。最好将关键词映射到标签,然后制作一个词云来查看这些关键词是否是唯一出现在顶部的词。您可以使用tf-idf、计数向量化器,之后可以使用如glove或fasttext或可能是BERT的嵌入技术。
-
聚类方法。您将关键词和标签放在一边,根据标签数量创建相应数量的聚类,然后可视化这些聚类并分析是否能找到在第一种方法中分配的标签的重叠部分。
-
使用主动学习。这有点复杂,但在这里您为一些数据分配标签,然后让系统分析这些稀疏的标签并推导出聚类,并根据反馈进行优化。这更像是人机交互的概念。
如果您需要关于上述任何一种方法或更多方法的更详细的回答,请告诉我。