⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 2.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: GzLi (笑梨), 信区: DataMining
标  题: [合集]有人谈谈决策树中的剪枝和特征子集选择的关系吗?
发信站: 南京大学小百合站 (Thu Apr 25 00:06:13 2002), 站内信件

boy (刘芳百是) 于Mon Apr 22 11:04:34 2002提到:

我感觉两者是一回事,
剪枝的过程就相当于wapper方式的特征子集选择,
不知道是不是正确

tyqqre (tyqqre) 于Mon Apr 22 11:15:14 2002)
提到:

我觉得剪枝是为了防止树过分的大,或者对训练例过分的吻合。

而特征子集的选择,例如在文本挖掘中,由于每个文本的特征太多了所以要选择最重要的
的特征来表示文本。




GzLi (笑梨) 于Mon Apr 22 16:50:43 2002提到:

特征选择是为了防止训练速度和识别速度过慢,以及为了防止训练样本与特征的比例过低
造成过拟合,才采用的。
如果剪枝是这个作用的活,应该说是一种wrapper形式的FS(Feature Selection)。
文本挖掘中,由于采用的特征中含有一定量的irrelavant Features and weak relavant
features, 所以要FS,可以有多种方法,如果利用decision tree,就可以同时pruning,
如果采用SVM,也可以同时计算输入的参数的权重,进行选择。



mnls (蒙娜丽莎的微笑) 于Tue Apr 23 09:20:25 2002提到:

我觉得不是一回事。一棵子树被剪枝,意味着被一个叶子节点或者它的一棵子树代替,
其结果子树对应的特征集合与特征子集选择的结果未必相同。


ericwzx (风子) 于Tue Apr 23 20:07:33 2002提到:

如果一个叶子节点代表一个特征的话,剪枝的结果应该是就是达到了特征子集选择的效果
了吧?我也觉得应该就是用决策树作为分类器的wrapper model。


⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -