资源简介
因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份同音异形词库
代码片段和文件信息
相关资源
- 中文分词词库整理.rar
- 中文分词词库整理
- ik中文分词词库30万中文分词词库(含
- 正向最大匹配中文分词算法
- 测试中文分词.rar
- 最新中文分词工具的词库
- 微软亚洲研究院中文分词语料库
- 中文分词用的词典文件
- 中文分词+关键字提取
- SCWS 中文分词
- HMM隐马尔可夫模型用于中文分词
- 基于svm的中文文本分类系统
- CRF,LSTM,最大后向匹配法实现中文分
- lucene中文分词器Jceseg和IK Analyzer使用
- 中科院中文分词系统ICTCLAS2015
- lucene 中文分词
- 中文自然语言处理中文分词训练语料
- 多种中文分词停用词表
- 百度中文分词词库
- 中文网页自动分类器
- R语言jiebaR中文分词并做LDA主题建模
- 最大逆向中文分词算法
- elasticsearch-ik中文分词器7.6.2.zip
- Spark大数据中文分词统计Scala语言工程
- Jieba0.35中文分词组件
- rost cm6 中文分词软件
- sogou-dic-utf8搜狗词库
- 中文分词 毕业论文
- .NET中文分词
评论
共有 条评论