如何在C语言中构建决策树时存储它?

这是一个概念性的问题。

我正在递归地构建一个决策树。每次函数迭代时,都会处理训练样本的一个子集,遍历所有特征以及每个特征内的所有可能分割,找到最佳的分割方式,将子集分割成两个更小的子集,并对每个分割后的子集调用函数两次。

我之前在MatLab中实现过这个算法,但运行速度太慢,所以现在我尝试在C语言中实现(我对C语言不太熟悉)。在MatLab中,我使用了一个全局的’splits’矩阵来存储每个分割的信息(哪个特征,特征内的什么值,如果这是叶节点的分类,每个子节点的行号),这样我就可以用新的测试数据点遍历这个矩阵来找到它的分类。

在C语言中,使用头文件似乎可以实现全局二维数组,但我如果有其他方法的话,我宁愿不使用头文件。问题是,由于函数是递归调用的,我很难知道’splits’中下一个可用的行。我可以做一些像子节点的行是父节点行的2*i和2*i+1这样的操作,但对于一个有很多分割的大数组来说,这将需要大量的初始存储空间。

有什么建议吗?


回答:

在我看来,你需要放弃使用二维数组来表示你的树。在C语言中,任意度数的树通常看起来像这样:

struct node{       struct node ** children;        int num_children;        /* 节点/叶子中的值 */};

如果树的度数是固定的,或者每个节点有一个最大度数,那么以下结构就足够了:

struct node{       struct node * children;        int num_children; /* 如果度数只有一个最大值 */        /* 节点/叶子中的值 */};

你将需要使用malloc及其相关函数来为节点及其子节点分配内存。

关于头文件:在C语言中,头文件是一种福利,而不是诅咒,但如果你坚持不使用它们,那么你总是可以替换它们的#include实例。

如果你从MatLab转到另一种语言来加速你的实现,那么你可能首先要考虑除C语言之外的其他语言。像Java、Python甚至Haskell这样的语言可能会给你带来类似的速度提升,但处理指针时会更少麻烦。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注