使用Python Gensim进行大规模语料库的LDA训练模型极其缓慢

我目前正在处理9600个文档,并应用gensim进行LDA训练。训练过程似乎永远也得不到模型。我也尝试使用了多核功能,但似乎没有效果。我运行了将近三天的时间,仍然无法得到LDA模型。我检查了一些数据特征和代码。我阅读了这个问题 gensim LdaMulticore not multiprocessing?,但仍然没有找到解决方案。

corpora.MmCorpus.serialize('corpus_whole.mm', corpus)corpus = gensim.corpora.MmCorpus('corpus_whole.mm')dictionary = gensim.corpora.Dictionary.load('dictionary_whole.dict')dictionary.num_pos12796870print(corpus)MmCorpus(5275227 documents, 44 features, 11446976 non-zero entries)# lda model training codeslda = models.LdaModel(corpus, num_topics=45, id2word=dictionary,\ update_every=5, chunksize=10000,  passes=100)ldanulti = models.LdaMulticore(corpus, num_topics=45, id2word=dictionary,\                            chunksize=10000, passes=100, workers=3)

这是我检查BLAS的配置,我不确定我是否安装了正确的版本。让我困扰的一件事是,我无法在我的Mac上使用apt-get命令来安装软件包。我已经安装了Xcode,但它仍然显示错误。

python -c 'import scipy; scipy.show_config()'lapack_mkl_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]lapack_opt_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]blas_opt_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]blas_mkl_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]

我对如何在Python中使用我的字典和语料库来使用shardedcorpus知之甚少,所以任何帮助都将不胜感激!我已经三天没睡觉了,就为了解决这个问题!!谢谢!!


回答:

在我的机器上我无法重现你的问题,但对我来说,你的问题似乎不是多处理,而是你的passes参数,这个参数似乎设置得太高了。试试1或2,这应该是一个不错的起始参数。如果你的主题没有很好地收敛,你仍然可以增加它。

lda = models.LdaModel(corpus, num_topics=45, id2word=dictionary, update_every=5, chunksize=10000,  passes=1)

这样最多一天就能完成,可能只需要几个小时(取决于你的机器)。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注