478.txt

来自「This complete matlab for neural network」· 文本 代码 · 共 36 行

TXT
36
字号
发信人: jeff814 (mimi), 信区: DataMining
标  题: 回strawman:请进
发信站: 南京大学小百合站 (Fri Oct 25 10:39:20 2002)

斑竹:


你说得很对。错误率大于0.5的是要抛弃,我忘了写。

但是我还是有些不明白:


   错误率:Εt=ΣDt(i)  [ht(Xi)≠Yi]   //是按第一轮的训练集合来算的呢,还是按本
轮的集合来算的?


   最后输出的一般形式是加权表决取最大者,是吗?


   我上次提的结果是不是合理呢?


   有没有介绍boosting比较详细的中文书籍可以推荐??


THX!!!!!



【 在 strawman 的大作中提到: 】

: adaboost算法有不同的版本,我知道的就有用于分类的和用于回归估计的。算法的思..
: 是一样的,但是具体操作起来还是有些问题需要注意。

: 譬如说,训练错误率,有可能错误率大于0.5的,这样的component要抛弃,还有可能..
: 率等于0的,这样的component的权趋于无穷大。还有,就是随着训练轮数的增加,有..
: 子的权值变得很大,这些例子就是那些难学习的例子;有些例子权值变得很小,这些..
: 容易学习。这样在正规化的时候,就有可能造成浮点数溢出。

: 这些都是应该在程序中考虑到的。

: 【 在 strawman (独上江楼思渺然) 的大作中提到: 】

: : 如果错误率大于1/2你怎么办?好像算法中没有考虑吧。


--

※ 来源:.南京大学小百合站 http://bbs.nju.edu.cn [FROM: 202.99.41.202]

⌨️ 快捷键说明

复制代码Ctrl + C
搜索代码Ctrl + F
全屏模式F11
增大字号Ctrl + =
减小字号Ctrl + -
显示快捷键?