资源简介
本资源通过python访问腾讯新闻实时疫情数据官方api接口爬取中国疫情累计确诊,累计死亡,累计治愈,累计境外输入,累计无症状感染者以及每日新增的数据,通过echarts实现数据可视化,并利用python中的flask轻量级框架实现路由转发,ajuax动态刷新,并实现后台腾讯云服务器数据flask项目,实现每日自动更新数据。
代码片段和文件信息
from flask import Flask
from flask import render_template
from flask import jsonify
from jieba.analyse import extract_tags
import string
import utils
app = Flask(__name__)
@app.route(‘/‘)
def hello_world():
return render_template(“main.html“)
@app.route(“/c1“)
def get_c1_data():
data = utils.get_c1_data()
return jsonify({“confirm“: int(data[0]) “suspect“: int(data[1]) “heal“: int(data[2])“dead“: int(data[3]) “importedCase“: int(data[4]) “noInfect“: int(data[5])})
@app.route(“/c2“)
def get_c2_data():
res = []
for tup in utils.get_c2_data():
# print(tup)
res.append({“name“: tup[0] “value“: int(tup[1])})
return jsonify({“data“: res})
@app.route(“/l1“)
def get_l1_data():
data = utils.get_l1_data()
day confirm suspect heal dead importedCase noInfect= [] [] [] [] [][][]
for a b c d e f g in data[7:]:
day.append(a.strftime(“%m-%d“)) # a是datatime类型
confirm.append(b)
suspect.append(c)
heal.append(d)
dead.append(e)
importedCase.append(f)
noInfect.append(g)
return jsonify({“day“: day “confirm“: confirm “suspect“: suspect “heal“: heal “dead“: dead“importedCase“:importedCase“noInfect“:noInfect})
@app.route(“/l2“)
def get_l2_data():
data = utils.get_l2_data()
day confirm_add suspect_add heal_add dead_add importedCase_add infect = [] [] [] [] [] [] []
for a b c d e f g in data[7:]:
day.append(a.strftime(“%m-%d“)) # a是datatime类型
confirm_add.append(b)
suspect_add.append(c)
heal_add.append(d)
dead_add.append(e)
importedCase_add.append(f)
infect.append(g)
return jsonify({“day“: day “confirm_add“: confirm_add “suspect_add“: suspect_add“heal_add“:heal_add“dead_add“:dead_add“importedCase_add“:importedCase_add“infect“:infect})
@app.route(“/r1“)
def get_r1_data():
data = utils.get_r1_data()
city = []
confirm = []
dead = []
for kvn in data:
city.append(k)
confirm.append(int(v))
dead.append(int(n))
return jsonify({“city“: city “confirm“: confirm“dead“:dead})
@app.route(“/time“)
def get_time():
return utils.get_time()
if __name__ == ‘__main__‘:
app.run()
属性 大小 日期 时间 名称
----------- --------- ---------- ----- ----
目录 0 2020-04-27 10:34 cov_CHINA\
目录 0 2020-04-27 19:41 cov_CHINA\.idea\
文件 828 2020-04-26 12:11 cov_CHINA\.idea\cov_CHINA.iml
目录 0 2020-04-27 09:58 cov_CHINA\.idea\inspectionProfiles\
文件 436 2020-04-27 09:58 cov_CHINA\.idea\inspectionProfiles\Project_Default.xm
文件 306 2020-04-26 12:11 cov_CHINA\.idea\misc.xm
文件 277 2020-04-26 12:11 cov_CHINA\.idea\modules.xm
文件 74310 2020-04-27 19:41 cov_CHINA\.idea\workspace.xm
文件 664 2020-04-26 15:24 cov_CHINA\.project
目录 0 2020-04-27 10:35 cov_CHINA\__pycache__\
文件 2391 2020-04-26 22:06 cov_CHINA\__pycache__\app.cpython-36.pyc
文件 2649 2020-04-27 10:35 cov_CHINA\__pycache__\utils.cpython-36.pyc
文件 2365 2020-04-26 22:06 cov_CHINA\app.py
文件 69275 2020-04-27 10:28 cov_CHINA\data_heros.csv
文件 901 2020-04-27 10:28 cov_CHINA\data_heros.py
文件 7064 2020-04-26 12:39 cov_CHINA\spider.py
目录 0 2020-04-26 12:12 cov_CHINA\static\
目录 0 2020-04-27 10:39 cov_CHINA\static\css\
文件 2362 2020-04-27 10:39 cov_CHINA\static\css\main.css
目录 0 2020-04-27 09:41 cov_CHINA\static\js\
文件 61827 2019-04-24 13:05 cov_CHINA\static\js\china.js
文件 3301 2020-04-26 22:22 cov_CHINA\static\js\controller.js
文件 1685 2020-04-27 09:41 cov_CHINA\static\js\ec_center.js
文件 1922 2020-04-26 21:12 cov_CHINA\static\js\ec_left1.js
文件 1852 2020-04-26 22:32 cov_CHINA\static\js\ec_left2.js
文件 1126 2020-04-26 22:56 cov_CHINA\static\js\ec_right1.js
文件 771049 2019-12-12 22:18 cov_CHINA\static\js\echarts.min.js
文件 95786 2019-04-24 13:05 cov_CHINA\static\js\jquery-1.11.1.min.js
目录 0 2020-04-27 19:38 cov_CHINA\templates\
文件 86788 2020-04-27 19:38 cov_CHINA\templates\main.html
文件 2626 2020-04-27 10:34 cov_CHINA\utils.py
............此处省略5484个文件信息
- 上一篇:数据结构——Python语言描述
- 下一篇:爬取豆瓣网腾讯招聘并进行可视化分析
相关资源
- python爬取漏洞库.zip
- Python+Mysql教务管理系统
- 爬虫多维度抓取链家二手房成交数据
- Flow blog数据库课程设计
- MySQL-python-1.2.3.win-amd64-py2.7
- 树莓派LoRa教程.docx
- python+mysql人力资源管理系统
- 误删mysqlroot用户一键恢复python
- MySQL客户端库PyMySQL.zip
- MySQL-python-1.2.3.win-amd64-py2.7.exe
- 文本查重系统
- MySQL-python-1.2.5.win-amd64-py2.7
- Python爬取论文标题、作者、摘要等信
- backup.sh.py
- 利用selenium对拉勾网的爬虫并将数据导
- python+django+mysql web开发 入门图书管理
- 利用python的scrapy爬取慕课网全站课程
- python3 网络爬虫 多线程 无限爬网址
- 使用python实现MySQL作为数据存储的登陆
- get_wuyou.zip
- Python操作MySQL数据进行图片存取操作
- mysqldb64位
- 爬虫源码:分页爬取,mysql数据库连接
- python爬取微博热搜并直接写入mysql.r
- 基于python+mysql的图书管理系统,有g
- python实现图书借阅系统
- 利用selenium编写的python网络爬虫-淘宝
- 个人博客网站源码python3.6+django2.0+my
- 教务管理系统
- Python+Django+MySQL实现基于Web版的增删改
评论
共有 条评论