资源简介
使用python,mysql爬去百度百科的代码,并利用neo4j展示
代码片段和文件信息
# -*- coding: utf-8 -*-
# author:wxm
import pandas as pd
import pymysql
from py2neo import GraphNodeRelationship
import csv
## 加上字符集参数,防止中文乱码
def get_items_from_database():
#链接数据库
dbconn = pymysql.connect(
host=“192.168.1.24“
database=“baike_science“
user=“root“
password=“root“
port=3306
charset=‘utf8‘
use_unicode=True
)
# # sql语句
# sqlcmd = “SELECT idtitleurl FROM webpage WHERE time_stamp < ‘2017-12-21 00:00:00‘ “
#
# # 利用pandas 模块导入mysql数据
# data= pd.read_sql(sqlcmd dbconn) #python pandas.core.frame.Dataframe类型
#链接neo4j
test_graph = Graph(
“http://localhost:7474“
username=“neo4j“
password=“780961“
)
#清空数据库
test_graph.delete_all()
属性 大小 日期 时间 名称
----------- --------- ---------- ----- ----
文件 1950 2017-12-21 20:41 BaiDuBaiKei\baike_science.sql
文件 7485 2017-12-26 10:49 BaiDuBaiKei\DatatoNeo4j.py
文件 3006 2017-12-20 21:19 BaiDuBaiKei\data_storager.py
文件 16974 2017-12-21 20:37 BaiDuBaiKei\Spider.py
文件 2315 2017-12-20 20:46 BaiDuBaiKei\wipe_off_html_tag.py
文件 0 2017-12-21 20:37 BaiDuBaiKei\__init__.py
目录 0 2017-12-26 10:48 BaiDuBaiKei
----------- --------- ---------- ----- ----
31730 7
相关资源
- 煎蛋网图片爬虫
- 网易云音乐爬虫(亲测通过)
- 分布式scrapy-redis爬虫!糗事百科
- 用Python写网络爬虫.pdf(共35页)
- python爬虫-scrapy框架
- python 爬虫爬取京东代码
- 《用python写网络爬虫》pdf
- python爬虫爬取当当网
- 登陆需要密码以及图片验证的网站 如
- Nodejs实现的一个磁力链接爬虫
- PYTHON爬虫示例21345
- python 爬虫(pyspider)
- python3爬虫采集淘宝商品数据
- python 爬取豌豆荚APP的爬虫
- python 淘宝爬虫抓取天猫数据
-
python 微博爬虫 (lxm
l) - python微博爬虫(scrapy)
- 最简单爬虫
- python 天气网爬虫(爬取天气预报)
- Python网络爬虫与信息提取-北京理工大
- 《用python写网络爬虫》随书源码
- python大文件(爬虫大体积文件模块)
- python 爬虫入门级(BeautifulSoup爬取最好
- 爬虫爬取携程机票信息
- QQ空间爬虫QQSpider源码
- python爬虫(爬取新浪微博数据)
- python爬取豆瓣影评
- 《Python网络爬虫实战(胡松涛编著)
- python爬虫百度图片(将网络图片采集
- python千锋教育视频爬虫
评论
共有 条评论