如何在Scikit-Learn中逐批拟合数据?

我有一个超大的数据集(超过1 TB),我想使用Scikit-Learn的GradientBoostingRegressor进行训练。

由于数据量远超我的内存容量,我考虑将数据分成小块,并逐一进行’fit()’操作。

我了解到将’warm_start’属性设置为True可以在fit()后保留权重。然而,似乎每次调用fit()时都需要增加估算器的数量。

是否可以先对所有数据块进行fit()操作,然后再将估算器的数量增加一个?

对于我的问题,即拟合超大数据集,有什么最佳解决方案?


回答:

你可以尝试使用SGD估算器中的partial_fit方法。虽然它不是GBM,但效果很好。对于你这种数据量,使用线性模型并进行适当的交互作用可能会得到不错的结果。

Related Posts

为什么我们在K-means聚类方法中使用kmeans.fit函数?

我在一个视频中使用K-means聚类技术,但我不明白为…

如何获取Keras中ImageDataGenerator的.flow_from_directory函数扫描的类名?

我想制作一个用户友好的GUI图像分类器,用户只需指向数…

如何查看每个词的tf-idf得分

我试图了解文档中每个词的tf-idf得分。然而,它只返…

如何修复 ‘ValueError: Found input variables with inconsistent numbers of samples: [32979, 21602]’?

我在制作一个用于情感分析的逻辑回归模型时遇到了这个问题…

如何向神经网络输入两个不同大小的输入?

我想向神经网络输入两个数据集。第一个数据集(元素)具有…

逻辑回归与机器学习有何关联

我们正在开会讨论聘请一位我们信任的顾问来做机器学习。一…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注