如果我有200个特征,并且每个特征的值可以从0到无穷大,我是否应该在训练LibSVM之前将特征值缩放到[0-1]的范围内?
现在,假设我已经缩放了这些值,并且在训练模型后,如果我得到一个包含其值或特征的向量作为输入,我该如何在分类之前缩放这些输入测试向量的值呢?
谢谢@人名
回答:
如果你有无穷大的特征值,你根本无法使用LIBSVM。
更实际地说,缩放通常是有用的,这样核函数就不必处理大数,所以我建议你进行缩放。不过,这并不是一个要求。
正如评论中@人名所暗示的,请尝试在缩放和不缩放的情况下进行实验,这样你就能看到区别了。
现在,假设我已经缩放了这些值,并且在训练模型后,如果我得到一个包含其值或特征的向量作为输入,我该如何在分类之前缩放这些输入测试向量的值呢?
你不需要再次缩放。你已经在预训练步骤(即数据处理)中完成了缩放。