📄 338.txt
字号:
发信人: jeff814 (mimi), 信区: DataMining
标 题: 请教:boosting方法的实验结果为何会是**??
发信站: 南京大学小百合站 (Thu Oct 17 09:20:10 2002)
我现在用boosting+决策树的方法做分类,希望性能比单纯用决策树好。但实际是随着迭代
轮数的增加,得到的假设hi的权重反而在减小。即:boosting+决策树得到的假设不如单纯
的决策树好。
虽然boosting方法常常是用来将弱学习提升为强学习。但我看了很多文章的结果,其中的
学习方法本身准确率就比较高。我这里单纯决策树的准确率已经很高了,>90。但用了boo
sting之后,性能也不应该下降得那么厉害啊?
附:权重——轮数
10.273 第一轮
9.262 二
4.793
4.612
5.599
3.032
0.414
2.742
1.595
1.604
只有第五轮和第8轮相对于前,性能有所改善。
而且,就算是最初的准确率很高,不算弱学习。但从第3(或者4)轮开始,准确率已经下
降了很多,实际上已经是弱学习了,为什么后来的结果却得不到提升呢?
--
※ 来源:.南京大学小百合站 http://bbs.nju.edu.cn [FROM: 202.99.41.202]
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -