📄 480.txt
字号:
发信人: strawman (独上江楼思渺然), 信区: DataMining
标 题: Re: 回strawman:请进
发信站: 南京大学小百合站 (Fri Oct 25 11:43:14 2002), 站内信件
【 在 jeff814 (mimi) 的大作中提到: 】
: 斑竹:
:
: 你说得很对。错误率大于0.5的是要抛弃,我忘了写。
: 但是我还是有些不明白:
:
: 错误率:Εt=ΣDt(i) [ht(Xi)≠Yi] //是按第一轮的训练集合来算的呢,还是按本
: 轮的集合来算的?
是按照本轮的训练集合来算的。而Arc-X4在这一点上和AdaBoost不同,
Arc-X4记录的是前几轮中样本的错误率,所以用的是初始第一轮的训练集。
Arc-X4和Adaboost的思想差不多。只是形式上换了换。AdaBoost算法又名Arc-fs的。
:
: 最后输出的一般形式是加权表决取最大者,是吗?
对于分类,用的是加权投票。
:
: 我上次提的结果是不是合理呢?
这个偶就不是很清楚了,以前我做的试验结果都忘掉了。不过
你可以参考AI02中的一篇paper。在周老师的主页上有的下,那上面记录了一些试验结果
你不妨参考。
:
: 有没有介绍boosting比较详细的中文书籍可以推荐??
中文的我不知道,英文的看paper吧,一堆。
以前我推荐过一个网站 http://www.boosting.org 你可以去瞧瞧。
:
: THX!!!!!
:
:
: 【 在 strawman 的大作中提到: 】
: : adaboost算法有不同的版本,我知道的就有用于分类的和用于回归估计的。算法的思..
: : 是一样的,但是具体操作起来还是有些问题需要注意。
: (以下引言省略 ... ...)
--
白云在天,丘陵自出。
道里悠远,山川间之。
将子无死,尚复能来。
※ 修改:.strawman 于 Oct 25 11:59:00 修改本文.[FROM: 202.119.36.111]
※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: 202.119.36.111]
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -