我目前有两个数据集。一个数据集根据不同的输入数字给出对应的有理数输出,另一个数据集根据相同的输入向量给出对应的整数输出。数据大致如下 –
X (输入) = 0, 5, 10, 15, 20, 25Y1 (输出1) = 0.2, 0.4, 0.7, 1.1, 1.5, 1.9Y2 (输出2) = 45, 47, 51, 60, 90, 100
我已经成功地使用sklearn.svm中的SVR训练了两个不同的SVR模型,如下所示 –
from sklearn.svm import SVRregressor = SVR(kernel = 'rbf')svr_rbf = SVR(kernel='rbf', C=1e3, gamma=0.1)regressor.fit(X, Y1)Y1_rbf = svr_rbf.fit(X, Y1).predict(X)regressor.fit(X, Y2)Y2_rbf = svr_rbf.fit(X, Y2).predict(X)
我可以使用SVR来实现多维输出吗?比如输入向量为X,输出向量为[Y1, Y2]?没有特别的原因,我只是想减少代码量,使一切更加简洁。
附注:我查看了这个 – https://github.com/nwtgck/multi-svr-python,这不是我需要的。
回答:
一个不错的选择无疑是使用sklearn.multioutput
模块及其提供的回归和分类模型。
它们基本上采用一个基础估计器(在你的案例中是SVR
),并用它来预测多个标签。根据实际模型的不同,这可以通过不同的方式实现。例如,MultiOutputRegressor
为每个目标拟合一个回归器。
使用它无疑会使代码更加简洁:
import numpy as npfrom sklearn.multioutput import MultiOutputRegressorfrom sklearn.svm import SVRX = np.asarray([0, 5, 10, 15, 20, 25]).reshape(-1, 1)y = np.asarray([[0.2, 45], [0.4, 47], [0.7, 51], [1.1, 60], [1.5, 90], [1.9, 100]])regressor = MultiOutputRegressor(SVR(kernel='rbf', C=1e3, gamma=0.1))regressor.fit(X, y)