⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 338.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: jeff814 (mimi), 信区: DataMining
标  题: 请教:boosting方法的实验结果为何会是**??
发信站: 南京大学小百合站 (Thu Oct 17 09:20:10 2002)


我现在用boosting+决策树的方法做分类,希望性能比单纯用决策树好。但实际是随着迭代
轮数的增加,得到的假设hi的权重反而在减小。即:boosting+决策树得到的假设不如单纯
的决策树好。


虽然boosting方法常常是用来将弱学习提升为强学习。但我看了很多文章的结果,其中的
学习方法本身准确率就比较高。我这里单纯决策树的准确率已经很高了,>90。但用了boo
sting之后,性能也不应该下降得那么厉害啊?

附:权重——轮数

10.273     第一轮

9.262        二

4.793

4.612

5.599

3.032

0.414

2.742

1.595

1.604


只有第五轮和第8轮相对于前,性能有所改善。

而且,就算是最初的准确率很高,不算弱学习。但从第3(或者4)轮开始,准确率已经下
降了很多,实际上已经是弱学习了,为什么后来的结果却得不到提升呢?



--

※ 来源:.南京大学小百合站 http://bbs.nju.edu.cn [FROM: 202.99.41.202]

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -