我在运行一个随机森林分类模型时,最初将数据分为训练集(80%)和测试集(20%)。然而,预测结果中有太多假阳性,我认为这是因为训练数据中噪声过多,因此我决定采用不同的方法来分割数据,以下是我所做的调整。
由于我认为高假阳性率是由于训练数据中的噪声引起的,我调整了训练数据,使其包含相同数量的目标变量。例如,如果我有10,000行的数据,其中目标变量为8,000个(0)和2,000个(1),我将训练数据调整为总共4,000行,包括2,000个(0)和2,000个(1),这样训练数据中就包含了更多的信号。
当我尝试这种新的分割方法时,预测效果大大改善,将召回率从14%提高到了70%。
如果我在这里做错了什么,我很乐意听取您的反馈。我担心这样做是否会使我的训练数据产生偏差。
回答:
当训练集中每个类别的数据点数量不均衡时,基线(随机预测)会发生变化。
当您提到数据噪声时,我认为您是指类别1的训练点数量多于其他类别。这并不真正称为噪声,实际上这是偏差。
例如:您的训练集中有10,000个数据点,其中8,000个属于类别1,2,000个属于类别0。我可以一直预测类别0,并已经获得80%的准确率。这会引入偏差,并且0-1分类基线不会是50%。
为了消除这种偏差,您可以像您所做的那样有意平衡训练集,或者通过给错误函数赋予与训练集中点数成反比的权重来改变错误函数。