考虑任何最终使用梯度下降优化方法的情况。假设你已经成功创建了一个适合你的训练集且运行良好的假设。经过一段时间后,你的算法接收到越来越多的新数据,这些数据需要被学习。
问题:1) 这个算法是否可以继续被视为监督学习?
2) 如果可以,有没有办法在不重新遍历所有(新旧)数据的情况下从新数据中学习?
回答:
你的问题没有通用的答案,因为这是一个非常广泛的机器学习问题/议题,你应该在以下两个主题上进行研究:
- 在线学习 – 这是一类可以从新数据中学习而无需完全重新学习的算法/模型。最简单的此类模型是朴素贝叶斯,但即使是支持向量机也可以这样训练
- 概念漂移 – 这是一个更高级的主题,当不仅添加新数据,而且旧数据也可能变得“错误”(不再实际、真实)时就会出现
对于这两个问题有数十种方法(使用梯度下降并不重要,更重要的是你正在拟合的具体模型),一切都取决于特定的数据集和应用。
因此,一般来说:
- 如果你的问题似乎完全是静态的,随着时间没有什么变化,并且你对结果满意,你可以忽略新数据
- 如果问题似乎相当静态(小幅波动)或者你对其准确性不满意 – 尝试在线学习(或者,如果对于你的特定模型这是不可能的 – 偶尔重新训练整个模型)
- 如果问题似乎非常动态(大量波动) – 考虑概念漂移解决方案
是的,这仍然是监督学习,尽管也有半监督和无监督算法用于处理概念漂移。