资源简介
参考网络资源使用IKAnalyzer分词组件,实现了在Spark框架下使用Scala语言对唐诗宋词等国学经典进行中文分词统计排序的功能,你可以轻松发现唐诗宋词中最常用的词是那几个。
代码片段和文件信息
相关资源
- Spark-streaming 在京东的项目实践
- Apache_Spark_Graph_Processing
- 中文分词用的词典文件
- 数据库处理基础设计实现
- Learning.Spark.Lightning-Fast.Big.Data.Analysi
- 中文分词+关键字提取
- SCWS 中文分词
- 《Spark高级数据分析》源代码
- HMM隐马尔可夫模型用于中文分词
- bright spark 1.10 汉化版
- 基于svm的中文文本分类系统
- Mastering Machine Learning with Spark 2.X 无水
- 首届全国大学生大数据技能竞赛指导
- Spark高级数据分析(中文完整pdf版)
- Scala 2.11-API.chm
- Scala快速入门
- 免费 Spark GraphX 实战 图计算
- 《scala编程》第3版英文版&第3版源码
- Spark_GraphX大规模图计算和图挖掘V3.0
- scala-2.11.8.tgz
- 《Akka in Action》完整版
- CRF,LSTM,最大后向匹配法实现中文分
- Hadoop超级详细思维导图原件
- Spark面试题全解-2019版
- scala-sdk-2.12.3.rar
- spark-2.1.1-bin-hadoop2.7
- 高性能scala
- sprak MLlib机器学习算法源码及实战
- scala-2.11.8(windows系统)
- Spark大数据处理技术 完整版高清带详
评论
共有 条评论