⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 948.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: singhoo (tony), 信区: DataMining
标  题: Re: 关于naive bayes的问题
发信站: 南京大学小百合站 (Mon Sep 16 11:20:32 2002), 站内信件

i see
在计算不同文章属于同一类别的概率是,bayes公式有变化
p(cj|di)=p(cjdi)/p(di)中的p(di)不在相等,而在计算同一文档属于不同类别时
p(di)是相等的,所以bayes分类不计算

wi出现次数多,nid次方后是变小,但是p(di)也会变小,两者相除,是可以比较的!

【 在 tyqqre (tyqqre) 的大作中提到: 】
: 我的理解是:
: p(wi|cj)是在训练例集上求得的,也就是说,只要训练例集不变,这个值应该是固定的。
: 
: 而÷来了一个需要分类的新文档di
: 在计算p(cj|di)的时候,nid次方的这个nid是在这个新文档di中wi出现的次数。
: 所以nid越大,p(wi|cj)的nid次方就越小。
: 
: 这样能不能说,用这种方法只能比较同一篇文章属于不同类别的概率,
: 而不能比较不同文章属于同一类别的概率。
: 【 在 singhoo 的大作中提到: 】
: : 但是p(wi|cj)会变大阿
: : 你的前提条件是wi出现多次
: : 本来出现一次p(wi|cj)=0.8,不计算次方
: : 出现2次,p(wi|cj)=0.9,平方后是0.81
: : 变小了吗?


--
※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: 202.38.197.76]

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -