训练文档的数量是否会影响分类时间?我知道在K-最近邻(K-nn)算法中,所有的计算都在分类阶段进行,而训练阶段的工作量很少或几乎没有。SVM、朴素贝叶斯、决策树等算法是否也是这种情况?
回答:
只有惰性分类器具有这种特性,KNN就是其中之一。
- SVM – 分类时间取决于支持向量的数量,而支持向量的数量可能但不一定取决于训练文档的数量(它们是支持向量数量的上限)
- 朴素贝叶斯 – 除非这些新文档包含许多新词,否则不会有影响,因为NB的分类时间是O(特征数量),所以如果不扩大词汇量(在词袋模型的情况下),你可以安全地使用大量训练数据
- 决策树 – 与NB相同,仅取决于特征数量(以及问题的复杂性,而这不会随实例数量的变化而变化)
- 神经网络 – 这里的分类时间仅取决于神经元的数量