如何处理机器学习中不同维度的特征向量?

我是机器学习的新手,正在尝试使用一个数据集来训练对数线性分类器。这个数据集包含五个特征,每个特征都是一个向量,但这些特征的维度不同,分别是3、1、6、2和2。我尝试使用scikit-learn中的PCA方法将维度减少到1,但效果不佳。那么,我该如何处理这些特征以适应如逻辑回归这样的对数线性分类器模型呢?


回答:

一种简单的方法是将所有特征展平。然后将其输入到你的分类器中。

例如:

features = [...           [[0, 1 3], [5], [2, 6, 4, 7, 8, 9], [1, 0], [0, 1]], #for one sample          ...]

使用列表解析来展平features中的每个列表:

flattened_features = [[i for k in f for i in k] for f in features]

这样会将features转换成类似于这样的形式:

    flattened_features    [...     [0,1,3,5,2,6,4,7,8,9,1,0,0,1], #for one sample    ...]

现在你可以将其转换为numpy数组并输入到你的模型中。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注