📄 478.txt
字号:
发信人: jeff814 (mimi), 信区: DataMining
标 题: 回strawman:请进
发信站: 南京大学小百合站 (Fri Oct 25 10:39:20 2002)
斑竹:
你说得很对。错误率大于0.5的是要抛弃,我忘了写。
但是我还是有些不明白:
错误率:Εt=ΣDt(i) [ht(Xi)≠Yi] //是按第一轮的训练集合来算的呢,还是按本
轮的集合来算的?
最后输出的一般形式是加权表决取最大者,是吗?
我上次提的结果是不是合理呢?
有没有介绍boosting比较详细的中文书籍可以推荐??
THX!!!!!
【 在 strawman 的大作中提到: 】
: adaboost算法有不同的版本,我知道的就有用于分类的和用于回归估计的。算法的思..
: 是一样的,但是具体操作起来还是有些问题需要注意。
: 譬如说,训练错误率,有可能错误率大于0.5的,这样的component要抛弃,还有可能..
: 率等于0的,这样的component的权趋于无穷大。还有,就是随着训练轮数的增加,有..
: 子的权值变得很大,这些例子就是那些难学习的例子;有些例子权值变得很小,这些..
: 容易学习。这样在正规化的时候,就有可能造成浮点数溢出。
: 这些都是应该在程序中考虑到的。
: 【 在 strawman (独上江楼思渺然) 的大作中提到: 】
: : 如果错误率大于1/2你怎么办?好像算法中没有考虑吧。
--
※ 来源:.南京大学小百合站 http://bbs.nju.edu.cn [FROM: 202.99.41.202]
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -