使用交叉验证来确定最佳参数似乎是标准做法。当然,这通常是一个耗时的过程。有没有捷径?有没有其他更快的探索性分析形式,可以提示哪些值会是最佳的?
以我目前对机器学习和SVM的理解,我可能会做一些初步的网格搜索,在C的范围内从10e-5到10e5,以10为底数的指数进行搜索,然后再从中进行微调。但是,有没有一种方法可以快速估计最佳C值大约在10e3到10e5之间,然后进行更具体的搜索?
这个问题可能适用于大多数机器学习技术,但我目前正在使用SVM。
回答:
是的,这是积极研究的领域!除了我们都知道并(可能?)喜爱的标准网格搜索之外,在超参数调整方面已经有很多不同的方法被研究过。
与您描述的最相似的是各种贝叶斯/高斯过程方法来解决这个问题。这个GitHub仓库有一个实现和一些关于它如何工作的说明图片 https://github.com/fmfn/BayesianOptimization 。这种方法通过将参数优化问题视为另一个机器学习问题来工作,我们为每个超参数设置特征,并尝试预测各种参数组合的性能。
这是对该过程的高层次描述,您可以阅读仓库中链接的论文/笔记本以获取更多详细信息。