java的分词操作的jar文件,很不错的
资源简介:java的分词操作的jar文件,很不错的
上传时间: 2013-12-14
上传用户:zhangjinzj
资源简介:java中lucene分词需要的ICTCLAS.dll文件和data词库
上传时间: 2017-01-08
上传用户:ynwbosss
资源简介:这是一个基于java的分词、N-gram统计、分段 、分句等功能的程序,支持多种语言
上传时间: 2013-12-20
上传用户:金宜
资源简介:java树型字典的建立,是中文分词 检索的基础
上传时间: 2015-08-03
上传用户:hxy200501
资源简介:java版的分词程序,可以灵活生成添加字典。
上传时间: 2013-12-29
上传用户:标点符号
资源简介:基于java语言的分词系统,可以标注词性、词频等信息,可用于二次开发
上传时间: 2016-05-13
上传用户:mikesering
资源简介:一个java的分词程序,希望对大家有用,分词的效率还可以
上传时间: 2016-07-20
上传用户:anng
资源简介:一个很好用的分词系统(java开发),词表可以扩展。
上传时间: 2013-12-22
上传用户:lmeeworm
资源简介:基于词典的分词工具,用与对文本文件的分词
上传时间: 2017-03-15
上传用户:wpwpwlxwlx
资源简介:用c++写的分词算法,简单,实用,详情看里面的帮助文件!
上传时间: 2015-05-14
上传用户:rishian
资源简介:linux系统下的分词软件,由java编写,我刚开始在windows下使用,折腾了两天,才发现在linux下
上传时间: 2017-08-16
上传用户:黑漆漆
资源简介:分词程序的源代码
上传时间: 2015-02-21
上传用户:13188549192
资源简介:分词规范的探诫坟
上传时间: 2015-02-25
上传用户:离殇
资源简介:利用最大匹配法进行汉语句子的分词 最大匹配算法是最常用的分词算法,简单实用正确率可达到80%以上
上传时间: 2013-12-02
上传用户:徐孺
资源简介:最大概率分词法,这种分词算法能够较好的解决汉语分词中的歧义问题,但分词效率比最大匹配分词算法要低
上传时间: 2015-03-17
上传用户:569342831
资源简介:中科院的分词动态连接库,不用我说了哈,在国内是大名顶顶哈
上传时间: 2014-01-22
上传用户:wangzhen1990
资源简介:文件管理系统:用于实现一个简单的多用户操作的文件管理系统
上传时间: 2015-06-21
上传用户:
资源简介:是一个很好的分词组件,里面有具体的说明文档。
上传时间: 2014-09-03
上传用户:金宜
资源简介:这是我在作研究是所使用的分词系统软件,现在提交给大家,供大家研究使用.
上传时间: 2015-07-11
上传用户:lijinchuan
资源简介:1.基于luncene倒排索引格式的高性能索引数据访问接口。 2. 实现若干中文分词的的分词算法。
上传时间: 2013-12-29
上传用户:ruixue198909
资源简介:中科院的分词程序说明,缺少此文档的可以看看看。
上传时间: 2015-08-23
上传用户:wweqas
资源简介:基于luecen的分词包,包含很多特性使用起来简单方便
上传时间: 2013-12-23
上传用户:xymbian
资源简介:将分词后的文档内容按照word的内容,将包含word的文档进行重新组织。
上传时间: 2013-12-05
上传用户:CHINA526
资源简介:基于最大概率的分词,首先读入.mdb数据库(字典与其统计词频),然后读入你要分词的.txt
上传时间: 2014-08-31
上传用户:xinzhch
资源简介:一段关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础
上传时间: 2013-12-26
上传用户:zhaoq123
资源简介:参考詹卫东写的分词程序,完成的一个基于C#的简易分词程序。
上传时间: 2014-01-03
上传用户:royzhangsz
资源简介:jsp分页展现中使用脚本js实现增删改 在实际开发中客户往往为了操作的方便一般要求开发人员对数据的分页页面的增删改操作要作的比较友好和方便,下面是一种比较清晰和方便的页面增删改操作方式,此操作借助了js脚本!借助该脚本可以实现如下比较使用的功能: ...
上传时间: 2015-10-19
上传用户:lili123
资源简介:一个非常好的对称加密算法,有jar文件,可以直接运行,对初学者非常有用
上传时间: 2014-12-01
上传用户:qazxsw
资源简介:用java实现分形云的算法,直接运行即可得到分形云,无需任何修改
上传时间: 2014-08-13
上传用户:努力努力再努力
资源简介:一个可以将进行中文分词后的文档与标准文档进行比较的工具,可以测试分词识别的准确率、召回率等
上传时间: 2015-11-17
上传用户:wanqunsheng