📄 338.txt
字号:
发信人: daniel (飞翔鸟), 信区: DataMining
标 题: Re: [合集]讨论一下BNB算法!
发信站: 南京大学小百合站 (Fri Jan 11 15:35:32 2002), 站内信件
【 在 yaomc (白头翁&山东大汉) 的大作中提到: 】
: tyqqre (tyqqre) 于Tue Dec 4 10:56:45 2001)
: 提到:
: BNB--Boosted Naive Bayesian(推进贝叶斯?)
: 我的理解是,每个训练例都有一个权值,用这些训练例使用朴素贝叶斯方法得到一个分类
: 器C1后,将C1应用到训练例上,将分类错误的训练例的权值加大,利用新的权值的训练..
: 用朴素贝叶斯方法得到分类器C2,显然C2更关注C1分类错误的例子。如此循环T次。最..
: 以每个分类器的准确性作为权值,加权求和每个分类器的输出,得到结果。
:
: 不知道我的理解对不对?还望大家指教!谢谢!
you d better not to translate boosting to 推进。BNB is to apply boosting
to naive bayesian. the key is boosting. for boosting, there is a survey
paper written in chinese may be worth reading, i.e.
神经网络集成. 计算机学报, 2002, no.1
: waterflower (拥抱阳光) 于Tue Dec 4 12:25:42 2001提到:
: 哪二有相应的文献可以看
: tyqqre (tyqqre) 于Tue Dec 4 14:20:23 2001)
: 提到:
: Elkan C. (1997). Boosting and Naive Bayesian Learning. Technical Report No. CS
: 97-557, September 1997, UCSD.
:
--
宠辱不惊 闲看庭前花开花落
去留无意 漫随天外云卷云舒
※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: aiake1.nju.edu.cn]
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -