我已经按照链接中给出的指南进行了操作 http://ampcamp.berkeley.edu/big-data-mini-course/movie-recommendation-with-mllib.html
但这已经过时了,因为它使用的是Spark Mlib的RDD方法。新的Spark 2.0采用了DataFrame方法。现在我的问题是我已经得到了更新后的代码
val ratings = spark.read.textFile("data/mllib/als/sample_movielens_ratings.txt") .map(parseRating) .toDF()val Array(training, test) = ratings.randomSplit(Array(0.8, 0.2))// 使用ALS在训练数据上构建推荐模型val als = new ALS() .setMaxIter(5) .setRegParam(0.01) .setUserCol("userId") .setItemCol("movieId") .setRatingCol("rating")val model = als.fit(training)// 通过计算测试数据上的RMSE来评估模型val predictions = model.transform(test)
现在的问题是,在旧代码中,得到的模型是一个MatrixFactorizationModel,现在它有自己的模型(ALSModel)
在MatrixFactorizationModel中,你可以直接这样做
val recommendations = bestModel.get .predict(userID)
这将给出用户最有可能喜欢的产品列表。
但现在没有.predict方法。有什么办法可以根据用户ID推荐一系列产品吗?
回答:
使用模型上的transform
方法:
import spark.implicits._val dataFrameToPredict = sparkContext.parallelize(Seq((111, 222))) .toDF("userId", "productId")val predictionsOfProducts = model.transform (dataFrameToPredict)
有一个jira工单来实现recommend(User|Product)方法,但它尚未在默认分支上
现在你有了一个包含用户得分的DataFrame
你可以简单地使用orderBy和limit来显示N个推荐产品:
// where用于处理包含许多用户的大DataFrame的情况model.transform (dataFrameToPredict.where('userId === givenUserId)) .select ('productId, 'prediction) .orderBy('prediction.desc) .limit(N) .map { case Row (productId: Int, prediction: Double) => (productId, prediction) } .collect()
DataFrame dataFrameToPredict可以是某个大型的用户-产品DataFrame,例如所有用户 x 所有产品