谁能比较一下Flink和Spark作为机器学习平台的优劣?哪一个在迭代算法上表现更好?关于Flink与Spark的一般讨论链接:Apache Spark与Apache Flink的区别是什么?
回答:
免责声明:我是Apache Flink的PMC成员。我的回答重点在于Flink和Spark执行迭代的区别。
Apache Spark通过循环展开来执行迭代。这意味着对于每次迭代,都会调度和执行一组新的任务/操作符。Spark在这方面做得非常高效,因为它在低延迟任务调度方面表现出色(顺便说一下,Spark流处理也使用相同的机制),并且在迭代之间在内存中缓存数据。因此,每次迭代都在内存中处理前一次迭代的结果。在Spark中,迭代被实现为常规的for循环(参见逻辑回归示例)。
Flink将带有迭代的程序作为循环数据流来执行。这意味着数据流程序(及其所有操作符)只调度一次,数据从迭代的尾部反馈到头部。基本上,数据在迭代内的操作符之间循环流动。由于操作符只调度一次,它们可以在所有迭代中保持状态。Flink的API提供了两个专门的迭代操作符来指定迭代:1)批量迭代,这在概念上类似于循环展开;2)增量迭代。增量迭代可以显著加速某些算法,因为随着迭代次数的增加,每次迭代的工作量减少。例如,增量迭代PageRank实现的第10次迭代完成得比第一次迭代快得多。