我在使用带有线性核的SVC分类器来训练我的模型。训练数据:42000条记录
model = SVC(probability=True) model.fit(self.features_train, self.labels_train) y_pred = model.predict(self.features_test) train_accuracy = model.score(self.features_train,self.labels_train) test_accuracy = model.score(self.features_test, self.labels_test)
训练我的模型需要超过2个小时。我做错了什么吗?还有,什么可以用来改善时间?
提前感谢
回答:
有几种方法可以加速你的SVM训练。假设n
是记录数,d
是嵌入维度。我假设你使用的是scikit-learn
。
-
减少训练集大小。引用文档:
拟合时间复杂度随着样本数量的增加而超过二次方,使得它难以扩展到超过几万个样本的数据集。
O(n^2)
复杂度很可能主导其他因素。因此,采样较少的记录进行训练将对时间产生最大的影响。除了随机采样,你还可以尝试实例选择方法。例如,最近提出了一种主样本分析方法。 -
降低维度。正如其他人评论中所暗示的,嵌入维度也会影响运行时间。对于线性核计算内积是
O(d)
。因此,降维也可以减少运行时间。在另一个问题中,特别建议对于TF-IDF表示使用潜在语义索引。 - 参数。除非你需要概率,否则使用
SVC(probability=False)
,因为它们“会减慢该方法。”(来自文档)。 - 实现。据我所知,scikit-learn只是对LIBSVM和LIBLINEAR的封装。我在这里猜测,但你可以通过使用高效的BLAS库(如Intel的MKL)来加速这一过程。
-
不同的分类器。你可以尝试
sklearn.svm.LinearSVC
,它是…类似于参数kernel=’linear’的SVC,但使用liblinear而不是libsvm实现,因此在惩罚和损失函数的选择上具有更大的灵活性,并且应该能更好地扩展到大量样本。
此外,一个scikit-learn开发者在类似问题中建议使用
kernel_approximation
模块。