训练的机器学习模型太大

我们为某个回归任务训练了一个额外树模型。我们的模型由3个额外树组成,每个额外树包含200棵深度为30的树。在这3个额外树之上,我们使用了岭回归。

我们训练模型花了几个小时,并使用pickle保存了训练后的模型(整个类对象),以便后续使用。然而,保存的训练模型大小太大了,大约140 GB!

有什么方法可以减小保存模型的大小吗?pickle中有没有可以帮助的配置,或者有没有pickle的替代方案?


回答:

在最佳情况下(二叉树),你将会有3 * 200 * (2^30 - 1) = 644245094400个节点,假设每个节点只需要1字节来存储,那么就是434Gb。我认为140GB相较之下已经是一个相当不错的尺寸了。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注