我想在我的Java项目中使用Spark MLlib库来实现一些机器学习算法。我尝试了几种教程,但都没有成功。
我习惯使用Eclipse,惊讶于设置它如此困难。我的假设是只需从这里下载库并将jar文件添加到构建路径中,但显然似乎更复杂。
回答:
创建一个Maven项目并添加以下依赖项(适用于Spark最新版本2.0.0)。你可以从在Eclipse中运行简单的程序如JavaALSExample.java开始。
Spark的GitHub仓库中有更多的Java样本可供参考。希望这对你有帮助。
<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.0.0</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-mllib_2.11</artifactId> <version>2.0.0</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>2.0.0</version></dependency>