Spark 1.6.2与Spark 2.0.0中的KMeans对比

我在一个我无法控制且将在一个月内放弃的环境中使用Kmeans()。当前安装的是Spark 1.6.2版本。

在我离开之前,是否值得付出代价去推动“他们”升级到Spark 2.0.0?换句话说,Spark 2.0.0在使用Spark Mllib KMeans()时是否引入了任何显著的改进

对我来说,质量比速度更为重要。


回答:

可能性不大。

Spark 2.0.0并未对核心RDD API进行任何显著的改进,而KMeans的实现自1.6版本以来变化不大,仅在SPARK-15322SPARK-16696SPARK-16694中引入了相对显著的变化。

如果你使用ML API,可能会有一些与SPARK-14850相关的改进,但总体来说,我没有看到任何改变游戏规则的因素。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注