⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 861.txt

📁 This complete matlab for neural network
💻 TXT
字号:
发信人: chdq135 (阿权), 信区: DataMining
标  题: Re: 各位大虾,进来讨论一下!
发信站: 南京大学小百合站 (Tue Sep 10 08:44:47 2002), 站内信件

尽管在国外已经做了不少,但是中文方面还是不够。
如果作中文呢?中文发展情况怎样?
就我所致,也是用字、词结合的方法(统计),结合元数据,一起来提高
分类性能。
请大侠点评点评!


【 在 sinokdd (KDD in China) 的大作中提到: 】
: 
: 【 在 singhoo 的大作中提到: 】
: : 我准备做web文本分类方面的研究(硕士),看了2个月论文,本来打算做个
: : 原形系统,实现别人的算法,但是偶实验室一老师从美国回来,说别人都有
: : 现成的系统,这样做没有意义!要做一些算法改进和创新
: I think two months' reading is not a short period, you should know
: that some people have implemented such systems.
: 
: 
: : 搞的我现在很慌张,只好重做打算
: : 1:根据目前我的理解,做www文本分类,在机器学习(分类)算法上很难有突破
: : 无论是naive bayes,KNN还是SVM都比较成熟,我目前也没有能力去做这个
: : 算法的改进,所以想在特征提取算法/层次分类/使用超连接上做点研究,
: As I know, one people in CMU has done this, he uses bag of word to
: represent the web page, but give weight for each word, for example,
: word in title head, hyperlink has more weight.
: 
: : 2:另外,我打算建立自己的数据集(中文新闻web),目前国内好像没有公开的
: : web训练集,这样应该有点意义吧,不过国外的论文一般都使用几个常用的数据
: : 集,我这样的数据集能被承认吗?
: (以下引言省略 ... ...)

--
 知我者谓我心忧 ☆★ ★☆ 不知我者谓我何求?
  忧忧苍天         ★          此何人哉![0m

※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: 159.226.100.205]

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -