类别信息能否改善对样本外类别的预测?

假设我们有一些记录,这些记录包含了多个与我们试图预测的目标数字相关的特征。所有记录都遵循相同的基本模式,并且可以被RandomForestRegressor很好地学习。现在假设所有记录都增加了一个类别特征,这个特征可以被编码为额外的信息,以提高模型的预测能力。目前为止,一切顺利。

但是,现在假设我们想使用已经在包含类别特征的数据上训练的回归器来预测具有训练数据中未包含的新类别的记录。在这种情况下,类别信息是否变得无用(甚至更糟)?为了获得最佳的泛化性能,模型是否应该在没有类别信息的情况下重新训练(因为它之前已经适应了不在此数据集中的类别)?或者,是否有可能通过了解训练数据中的类别成员身份来改善对样本外类别的预测能力?


回答:

如果这些集合没有交集,那么你不应该包含该变量。如果你期望在测试数据中看到一些原始值,那么你应该使用它。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注