能否将训练好的Spark ML模型或交叉验证器保存到PostgreSQL数据库?

能否将训练好的Spark ML模型或交叉验证器保存到PostgreSQL数据库?我找到了将其保存到磁盘或HDFS的方法,但能否将其保存到关系数据库管理系统(例如PostgreSQL)的表中?


回答:

一般来说,这是不可能的。机器学习模型使用特定的结构,通过Parquet文件存储模型、元数据和可选的数据。虽然可以创建包装器来将相同的数据存储在关系数据库中,但目前Spark中没有这种功能。

对于某些模型子集,你可以:

  • 使用Java序列化来序列化模型。
  • 将保存的模型存储为大型对象。

这仅限于非分布式模型。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注