📄 132.txt
字号:
发信人: singhoo (tony), 信区: DataMining
标 题: Re: 求n-gram文章
发信站: 南京大学小百合站 (Fri Sep 27 11:06:45 2002), 站内信件
这个方法应该基于大文本训练集吧,给你单独1个文本,没有字典是不可能分出词语的
我打算将基于字典和统计模式的生词发现结合起来,应该效果比较好
【 在 pxh1018 (耐思) 的大作中提到: 】
: 我现在想不用字典对文本分词,看了一些介绍,基于统计模式的n-gram可以完成
: 不依靠分词字典,这个想法是很好的,据一些文章介绍,用n-gram分词效果很好,但是
: 我查了很多地方,没有详细的资料,哪位大侠何处有这样的资料,请告诉一下或email:
: pxh@mail.csu.edu.cn
: 先谢谢了!
--
※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: 202.38.197.76]
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -