大数据集中检测文本重复的高效算法

我在处理大约500万个地址的列表中检测重复项,正在寻找一种高效的算法来完成这个任务。我在GitHub上查看了Dedupe库(https://github.com/datamade/dedupe),但根据文档,我不确定它是否能很好地扩展到大型应用中。

顺便说一下,我只是想基于文本相似性来定义重复项——我已经对地址进行了大量清理。我一直在使用基于Levenshtein距离的粗糙方法,但我想知道对于大型数据集是否有更高效的方法。

谢谢,


回答:

Dedupe应该可以很好地处理这种规模的数据。

Michael WickBeka Steorts 已经在这一领域开展了一些出色的工作,他们的算法复杂度比Dedupe更好。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注