我在MATLAB中查看了帮助文档,但他们提供了一个示例,却没有解释如何使用’classregtree’函数中的参数。任何关于如何使用’classregtree’及其参数的解释都将不胜感激。
回答:
函数classregtree的文档页面本身已经解释得很清楚了…
让我们来看看分类树模型中一些最常用的参数:
- x:数据矩阵,行是实例,列是预测属性
- y:列向量,每个实例的类别标签
- categorical:指定哪些属性是离散类型(相对于连续类型)
- method:生成分类树还是回归树(取决于类别类型)
- names:为属性命名
- prune:启用/禁用减少错误的剪枝
- minparent/minleaf:允许指定节点中实例的最小数量,如果要进一步分割
- nvartosample:在随机树中使用(在每个节点考虑K个随机选择的属性)
- weights:指定加权实例
- cost:指定成本矩阵(各种错误的惩罚)
- splitcriterion:用于在每次分割时选择最佳属性的标准。我只熟悉Gini指数,它是信息增益标准的一种变体。
- priorprob:明确指定先验类概率,而不是从训练数据中计算
一个完整的示例来说明这个过程:
%# 加载数据load carsmall%# 构建预测属性和目标类vars = {'MPG' 'Cylinders' 'Horsepower' 'Model_Year'};x = [MPG Cylinders Horsepower Model_Year]; %# 混合连续/离散数据y = cellstr(Origin); %# 类别标签%# 训练分类决策树t = classregtree(x, y, 'method','classification', 'names',vars, ... 'categorical',[2 4], 'prune','off');view(t)%# 测试yPredicted = eval(t, x);cm = confusionmat(y,yPredicted); %# 混淆矩阵N = sum(cm(:));err = ( N-sum(diag(cm)) ) / N; %# 测试错误%# 剪枝以避免过拟合tt = prune(t, 'level',3);view(tt)%# 预测一个新的未见实例inst = [33 4 78 NaN];prediction = eval(tt, inst) %# pred = 'Japan'
更新:
上面的classregtree
类已被废弃,取而代之的是在R2011a中引入的ClassificationTree
和RegressionTree
类(参见R2014a中新引入的fitctree
和fitrtree
函数)。
这是使用新函数/类的更新示例:
t = fitctree(x, y, 'PredictorNames',vars, ... 'CategoricalPredictors',{'Cylinders', 'Model_Year'}, 'Prune','off');view(t, 'mode','graph')y_hat = predict(t, x);cm = confusionmat(y,y_hat);tt = prune(t, 'Level',3);view(tt)predict(tt, [33 4 78 NaN])