搜索结果

找到约 12,095 项符合 中文分词 的查询结果

软件 庖丁解羊中文分词器

官方说明:“刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+ ...
https://www.eeworm.com/dl/515937.html
下载: 3
查看: 101

多国语言处理 最短路径法分词程序。将中文句子经过原子切分后生成一个有向无环图

最短路径法分词程序。将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的最短路径以实现中文分词。
https://www.eeworm.com/dl/637/160986.html
下载: 72
查看: 1067

Java编程 庖丁分词模块

庖丁分词模块,对中文分词效果不错,可以好好学习
https://www.eeworm.com/dl/633/307057.html
下载: 43
查看: 1035

多国语言处理 爱博汉语分词系统

爱博汉语分词系统,是中文分词的商业话应用,非常好。
https://www.eeworm.com/dl/637/347513.html
下载: 127
查看: 1030

源码 结巴分词包

结巴中文分词包,使用Python进行编写的,比较好用  支持三种分词模式: - 精确模式,试图将句子最精确地切开,适合文本分析; - 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; - 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词 ...
https://www.eeworm.com/dl/517565.html
下载: 9
查看: 513

人工智能/神经网络 中文文本分类中对文本进行分词处理

中文文本分类中对文本进行分词处理,以降温本表示称词的集合,然后用词向量来进行分类。
https://www.eeworm.com/dl/650/146246.html
下载: 85
查看: 1046

多国语言处理 一段关于中文信息分类的分词算法

一段关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础
https://www.eeworm.com/dl/637/201432.html
下载: 139
查看: 1056

多国语言处理 中文信息处理方面的一个源码。此为一个分词软件

中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂。
https://www.eeworm.com/dl/637/242614.html
下载: 133
查看: 1186

Java编程 一个用java语言编写的中文文本分词算法

一个用java语言编写的中文文本分词算法
https://www.eeworm.com/dl/633/287063.html
下载: 102
查看: 1080

软件设计/软件工程 中文信息处理的分词词库

中文信息处理的分词词库,百度分词词库,用于中文信息处理的词库分析和源程序链接
https://www.eeworm.com/dl/684/299097.html
下载: 23
查看: 1111