为word2vec实现处理语料库

作为课堂项目的一部分,我正在尝试用Python编写一个word2vec实现,并在约6GB的语料库上进行训练。我试图编写一个合理优化的解决方案,这样我的电脑就不需要闲置几天。

在研究C语言的word2vec源代码时,我注意到,每个线程都会从文件中读取单词,并花时间查找每个单词的索引。最后,它存储了一个由单词索引组成的“句子”。

将整个语料库转换为包含适当单词的整数索引不是更合乎逻辑吗?这样,在训练过程中就不会因为哈希表查找而浪费时间,而转换过程只是一次性开销。

我理解,对于极其庞大的语料库来说,这实际上会使磁盘占用量翻倍,这可能是你想避免的。

然而,如果你有足够的内存,这不是会带来明显的效率提升吗?还是我高估了表查找的影响?


回答:

哈希表查找可以非常快,重复查找可能不会对整体运行时间贡献太多。

但是,要真正了解你提出的优化的潜在加速效果,唯一的方法是实现它,并与之前的行为进行对比分析。

另外,正如你所指出的,为了能够重复使用单次查找的标记,你需要将这些结果存储在某个地方。谷歌的word2vec.c代码,像许多其他实现一样,旨在处理远大于可寻址内存的输入语料库。将中间标记化结果写入磁盘会需要额外的代码复杂性,以及磁盘上的额外工作空间,相对于重复查找的基线来说。因此:即使它确实能稍微加速一些,实现者也可能认为这种额外的复杂性是不受欢迎的。

Related Posts

如何对SVC进行超参数调优?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

如何在初始训练后向模型添加训练数据?

我想在我的scikit-learn模型已经训练完成后再…

使用Google Cloud Function并行运行带有不同用户参数的相同训练作业

我正在寻找一种方法来并行运行带有不同用户参数的相同训练…

加载Keras模型,TypeError: ‘module’ object is not callable

我已经在StackOverflow上搜索并阅读了文档,…

在计算KNN填补方法中特定列中NaN值的”距离平均值”时

当我从头开始实现KNN填补方法来处理缺失数据时,我遇到…

使用巨大的S3 CSV文件或直接从预处理的关系型或NoSQL数据库获取数据的机器学习训练/测试工作

已关闭。此问题需要更多细节或更清晰的说明。目前不接受回…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注