我目前正在处理9600个文档,并应用gensim进行LDA训练。训练过程似乎永远也得不到模型。我也尝试使用了多核功能,但似乎没有效果。我运行了将近三天的时间,仍然无法得到LDA模型。我检查了一些数据特征和代码。我阅读了这个问题 gensim LdaMulticore not multiprocessing?,但仍然没有找到解决方案。
corpora.MmCorpus.serialize('corpus_whole.mm', corpus)corpus = gensim.corpora.MmCorpus('corpus_whole.mm')dictionary = gensim.corpora.Dictionary.load('dictionary_whole.dict')dictionary.num_pos12796870print(corpus)MmCorpus(5275227 documents, 44 features, 11446976 non-zero entries)# lda model training codeslda = models.LdaModel(corpus, num_topics=45, id2word=dictionary,\ update_every=5, chunksize=10000, passes=100)ldanulti = models.LdaMulticore(corpus, num_topics=45, id2word=dictionary,\ chunksize=10000, passes=100, workers=3)
这是我检查BLAS的配置,我不确定我是否安装了正确的版本。让我困扰的一件事是,我无法在我的Mac上使用apt-get命令来安装软件包。我已经安装了Xcode,但它仍然显示错误。
python -c 'import scipy; scipy.show_config()'lapack_mkl_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]lapack_opt_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]blas_opt_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]blas_mkl_info:libraries = ['mkl_intel_lp64', 'mkl_intel_thread', 'mkl_core', 'iomp5', 'pthread']library_dirs = ['/Users/misun/anaconda/lib']include_dirs = ['/Users/misun/anaconda/include']define_macros = [('SCIPY_MKL_H', None), ('HAVE_CBLAS', None)]
我对如何在Python中使用我的字典和语料库来使用shardedcorpus知之甚少,所以任何帮助都将不胜感激!我已经三天没睡觉了,就为了解决这个问题!!谢谢!!
回答:
在我的机器上我无法重现你的问题,但对我来说,你的问题似乎不是多处理,而是你的passes
参数,这个参数似乎设置得太高了。试试1或2,这应该是一个不错的起始参数。如果你的主题没有很好地收敛,你仍然可以增加它。
lda = models.LdaModel(corpus, num_topics=45, id2word=dictionary, update_every=5, chunksize=10000, passes=1)
这样最多一天就能完成,可能只需要几个小时(取决于你的机器)。