我一直在按照以下示例使用doc2vec进行文本分类:
我在我的数据集上运行了这个笔记本,并想将其中一个doc2vec模型应用到第三个数据集上(例如,构建测试/训练模型的整体数据集)。我尝试了以下方法:
X_train, X_test, y_train, y_test = train_test_split(df.post, df.tags, random_state=0, test_size=0.3)X_train = label_sentences(X_train, 'Train')X_test = label_sentences(X_test, 'Test')#addedbig_text = label_sentences(big_text, 'Test') #big_text = larger dataframe#old#all_data = X_train + X_test#newall_data = X_train + X_test + big_text
1 – 这种方法在实际应用中并不实用。需要预测的数据可能在训练/测试时不可用。
2 – 结果模型性能下降了
那么,如何保存一个模型并将其应用到完全不同的数据集上呢?似乎需要用其他数据集的文档来更新doc2vec模型。
回答:
gensim的Doc2Vec
模型可以使用.save(filepath)
和.load(filepath)
方法进行保存和加载。(使用这些gensim原生方法可以处理比普通Python pickle方法支持的更大的模型,并且可以更高效地将一些较大的内部数组存储为单独的文件。(如果移动保存的模型,请确保将这些附属文件与位于确切filepath
位置的主文件一起保留。))
之前训练过的Doc2Vec
模型可以通过.infer_vector(list_of_words)
方法为新文本生成文档向量。
请注意,提供给此方法的list_of_words
应与训练数据进行完全相同的预处理/分词——并且训练数据中不存在(或未达到min_count
频率)的任何单词都将被忽略。(在极端情况下,如果你传入的list_of_words
中没有识别出的单词,所有单词都将被忽略,你将得到一个随机初始化的但完全未经推断改进的向量。)
尽管如此,如果你正在重新评估或重新训练来自新领域的新数据的下游预测模型,你通常也希望重新训练Doc2Vec
阶段,使用所有可用的数据,以便它有机会从新的使用上下文中学习新单词。(主要是当你的训练数据广泛且具有代表性,并且你的新数据是增量传入且没有在词汇/使用/领域上发生重大变化时,你才希望依赖.infer_vector()
。)