我在评估用于生产环境的机器学习应用工具,其中一个选项是Spark MLlib,但我想了解一旦模型训练完成后,如何提供模型服务?
例如,在Azure ML中,一旦模型训练完成,它会被作为一个Web服务暴露出来,任何应用程序都可以使用它,亚马逊ML的情况也类似。
在Apache Spark中,如何提供/部署机器学习模型?
回答:
一方面,使用Spark构建的机器学习模型无法像在Azure ML或Amazon ML中那样以传统方式提供服务。
Databricks声称可以使用其笔记本部署模型,但我尚未实际尝试过。
另一方面,你可以使用模型的三种方式:
- 在应用程序中即时训练,然后进行预测。这可以在Spark应用程序或笔记本中完成。
- 训练一个模型,如果它实现了
MLWriter
,则保存模型,然后在应用程序或笔记本中加载并对数据进行运行。 - 使用Spark训练模型,并使用jpmml-spark将其导出为PMML格式。PMML允许不同的统计和数据挖掘工具使用相同的语言。这样,预测解决方案可以在工具和应用程序之间轻松移动,而无需自定义编码。例如,从Spark ML到R。
这些是三种可能的方式。
当然,你可以考虑一种架构,其中你可以构建一个RESTful服务,例如使用spark-jobserver来训练和部署,但这需要一些开发工作。这不是开箱即用的解决方案。
你还可以使用像Oryx 2这样的项目来创建完整的lambda架构,以训练、部署和提供模型服务。
不幸的是,详细描述上述提到的每种解决方案相当广泛,不适合在Stack Overflow的范围内讨论。