在Pyspark管道中使用用户定义的转换器

我正在尝试创建一个Pyspark管道来运行一个分类模型。我的数据集中有一个字符串类型的列。因此,我使用’StringIndexer’将其转换为数字,然后在管道中应用模型。

我的管道只有两个阶段:StringIndexerClassificationModel

StringIndexer创建了一个带有索引的新列,但旧列也被保留。我想在管道中引入一个新的转换器来删除’string’列。这可能吗?

StringIndexer中是否有其他方法可以删除实际的列?

谢谢


回答:

是的,你可以扩展abstract class Transformer并创建你自己的转换器来删除不需要的列。

这应该看起来像下面这样:

import org.apache.spark.ml.Transformerimport org.apache.spark.ml.param.ParamMapimport org.apache.spark.ml.util.Identifiableimport org.apache.spark.sql.{DataFrame, Dataset}import org.apache.spark.sql.types.{  ArrayType,  StringType,  StructField,  StructType}import org.apache.spark.sql.functions.collect_listclass Dropper(override val uid: String) extends Transformer {  def this() = this(Identifiable.randomUID("dropper"))  override def transform(dataset: Dataset[_]): DataFrame = {    dataset.drop("your-column-name-here")  }  override def copy(extra: ParamMap): Transformer = defaultCopy(extra)  override def transformSchema(schema: StructType): StructType = {    //这里你应该编写结果模式,即不包含被删除列的模式  }}

我已经这样做了一段时间,效果很好。

请注意,你也可以扩展abstract class Estimator

希望这对你有帮助。祝好

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注