我打算通过在sklearn自带的波士顿房价数据集(sklearn.datasets.load_boston)上运行,来测试我对sklearn支持向量回归包的实现。
在尝试了一段时间后(尝试了不同的正则化和管道参数、案例随机化和交叉验证),我发现预测结果始终是一条平线,现在我不知道问题出在哪里。更令人惊讶的是,当我使用sklearn.datasets包中的糖尿病数据集(load_diabetes)时,预测结果要好得多。
这是用于复制的代码:
import numpy as npfrom sklearn.svm import SVRfrom matplotlib import pyplot as pltfrom sklearn.datasets import load_bostonfrom sklearn.datasets import load_diabetesfrom sklearn.linear_model import LinearRegression# data = load_diabetes()data = load_boston()X = data.datay = data.target# prepare the training and testing data for the modelnCases = len(y)nTrain = np.floor(nCases / 2)trainX = X[:nTrain]trainY = y[:nTrain]testX = X[nTrain:]testY = y[nTrain:]svr = SVR(kernel='rbf', C=1000)log = LinearRegression()# train both modelssvr.fit(trainX, trainY)log.fit(trainX, trainY)# predict test labels from both modelspredLog = log.predict(testX)predSvr = svr.predict(testX)# show it on the plotplt.plot(testY, testY, label='true data')plt.plot(testY, predSvr, 'co', label='SVR')plt.plot(testY, predLog, 'mo', label='LogReg')plt.legend()plt.show()
现在我的问题是:你们中有没有人成功地使用支持向量回归模型处理过这个数据集,或者有关于我做错什么的想法? 我非常感谢你们的建议!
这是上述脚本运行的结果:
回答:
将内核从rbf
改为linear
可以解决问题。如果你想使用rbf
,尝试一些不同的参数,特别是gamma
。默认的gamma
(1/# features
)对于你的情况来说太大了。
这是我对线性内核SVR
使用的参数:
svr = SVR(kernel='linear', C=1.0, epsilon=0.2)
我绘制了训练数据标签和测试数据标签。你可能会注意到训练数据的分布不均匀。这使得模型在5 < y < 15
时缺乏训练数据。因此,我对数据进行了一些洗牌,并将训练数据设置为使用你数据的66%。
nTrain = np.floor(nCases *2.0 / 3.0)import randomids = range(nCases)random.shuffle(ids)trainX,trainY,testX,testY = [],[],[],[]for i, idx in enumerate(ids): if i < nTrain: trainX.append(X[idx]) trainY.append(y[idx]) else: testX.append(X[idx]) testY.append(y[idx])
这是我得到的结果:
从视觉上看,两个回归器的预测误差都有了改善。
这是一个使用rbf
内核的SVR
的工作示例:
svr = SVR(kernel='rbf', C=1.0, epsilon=0.2, gamma=.0001)
结果看起来像这样: