如何将向量转换为数组以进行频繁模式分析

我在进行频繁模式分析,需要一些关于输入类型的帮助。

首先,我使用stringindexer将我的分类变量转换为数字。

之后,我为每个分类值创建一个唯一数字,如下所示:

add_100=udf(lambda x:x+100,returnType=FloatType())add_1000=udf(lambda x:x+1000,returnType=FloatType())df = df.select('cat_var_1', add_1000('cat_var_2').alias('cat_var_2_final'), add_10000('cat_var_3').alias('cat_var_3_final'))

我的下一步是创建一个包含特征的向量:

featuresCreator = ft.VectorAssembler(inputCols=[col for col in features], outputCol='features')df=featuresCreator.transform(df)

最后,我尝试拟合我的模型:

from pyspark.ml.fpm import FPGrowthfpGrowth = FPGrowth(itemsCol="features", minSupport=0.5, minConfidence=0.6)model = fpGrowth.fit(df)

然后得到了这个错误:

u’requirement failed: The input column must be ArrayType, but got org.apache.spark.ml.linalg.VectorUDT@3bfc3ba7.

所以,问题是,我如何将我的向量转换为数组?或者,还有其他方法可以解决这个问题吗?


回答:

我认为,你不需要使用udf来创建唯一数字。你可以直接使用withColumn,如下所示:

df = df.withColumn('cat_var_2_final',df['cat_var_2']+100).withColumn('cat_var_3_final',df['cat_var_3']+1000)

另外,如果你只为FPGrowth模型准备这些数据,我们也可以跳过VectorAssembler,直接使用udf创建Array特征,如下所示:

udf1 = udf(lambda c1,c2,c3 : (c1,c2,c3),ArrayType(IntegerType()))df = df.withColumn('features',udf1(df['cat_var_1'],df['cat_var_2_final'],df['cat_var_3_final']))

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注