编辑回复: 关于决策树可视化,大家可以看看这个。
编辑回复: 单纯看节点D的基尼系数,采用公式:1 - [p(ck|t)]^2,也就是Gini(D)=1 - (9/12 * 9/12 + 3/12 * 3/12) = 0.375
同时,文章也计算了关于节点D,在属性A划分下的基尼系数的情况:
Gini(D, A)=|D1|/|D|*Gini(D1) + |D2|/|D|*Gini(D2)=6/12*0+6/12*0.5=0.25
所以Gini(D)=0.375, Gini(D, A)=0.25
作者回复: Good Job
作者回复: Good Job
作者回复: take it easy
作者回复: Good Job
作者回复: Good Job
编辑回复: 单纯看节点D的基尼系数,采用公式:1 - [p(ck|t)]^2,也就是Gini(D)=1 - (9/12 * 9/12 + 3/12 * 3/12) = 0.375
同时,文章也计算了关于节点D,在属性A划分下的基尼系数的情况:
Gini(D, A)=|D1|/|D|*Gini(D1) + |D2|/|D|*Gini(D2)=6/12*0+6/12*0.5=0.25
所以Gini(D)=0.375, Gini(D, A)=0.25
手写数字数据集,采用CART分类这个正确
编辑回复: 评论中有人对决策树可视化做了解释,你可以看下。采用的是graphviz这个库,你需要先安装,然后使用。
作者回复: 总结的不错
作者回复: 可以用CART算法,另外GBDT里面默认使用的是CART,这是个在数据分析,机器学习中常用的模型
作者回复: 代码正确