资源简介
使用Python,对爬取微博的评论,进行jieba分词,统计词频,修改路径即可。
代码片段和文件信息
#结巴分词统计微博评论词频
import jieba.analyse
weibo_id = 4363505468007923
fp = open(“C:/pythonwork/Spider/weibo_comment_“+str(weibo_id)+“.txt“ encoding=“utf-8“ errors=“ignore“)
new_fp = open(“C:/pythonwork/Spider/weibo_com_“+str(weibo_id)+“.txt“ “w“ encoding=“gbk“ errors=“ignore“)
try:
all_text = fp.read()
new_fp.write(all_text)
finally:
fp.close()
new_fp.clos
相关资源
- 中山大学-自然语言处理-中文分词项目
- 最大匹配法分词Python
- 法律判决文书python爬虫、以及数据处
- 结巴分词Python代码
- 分析三国演义和红楼梦,进行中文分
- 结巴分词、词性标注以及停用词过滤
- HMM实现中文分词python实现作业
- python写的基于感知机的中文分词系统
- 基于HMM模型中文分词系统
- jieba分词,连接数据库,分析数据库中
- Python爬取微博评论代码
- Python分词系统jieba代码有注释,无报错
- 微博评论Python代码实现
- 使用jieba进行关键字抽取
- ngramScore适应度计算文件(包含引入的
- NLP分词
- python分析评论内容是积极的还是消极
- python爬取微博评论
- python正向最大匹配分词和逆向最大匹
- 正向最大匹配分词算法及KNN文本分类
- python分词
评论
共有 条评论