资源简介
此资源仅供学习用途,当前selenium都是基于无头模式的firefox或者chrome等浏览器进行爬虫抓取,天眼查的反爬技术算是很不错的,仅仅用于个人学习用,并不可以进行大数据的爬取
技术: python selenium 爬虫 模拟登陆 xpath css选择器等等
代码片段和文件信息
#!/usr/bin/python
# -*- coding:utf-8 -*-
# author: Jola
# datetime:2018/4/20 17:15
# software-version: python 3.5
import time
from selenium import webdriver
from selenium.webdriver import Firefox
class GetCompanyInfo(object):
“““
爬取天眼查下的企业的信息
“““
def __init__(self):
“““
初始化爬虫执行代理,使用firefox访问
“““
self.username = ‘‘
self.password = ‘‘
self.options = webdriver.FirefoxOptions()
self.options.add_argument(‘-headless‘) # 无头参数
self.geckodriver = r‘geckodriver.exe‘
self.driver = Firefox(executable_path=self.geckodriver firefox_options=self.options)
self.start_url = ‘https://www.tianyancha.com‘
def test(self):
“““
调试专用
:return:
“““
start_url = ‘http://y2.twenteen.cn/Home/Index‘
self.driver.get(start_url)
cookies = {
‘ASP.NET_SessionId‘: ‘v3gnz3zsx0l2vxqmszhzat4w‘
‘Hm_lvt_ddd605dfec122be0f190ebb874331df1‘: ‘1524279814‘
‘Hm_lpvt_ddd605dfec122be0f190ebb874331df1‘: ‘152428022‘
}
for k v in cookies.items():
self.driver.add_cookie({
‘name‘: k
‘value‘: v
})
time.sleep(1)
print(self.driver.page_source)
self.driver.close()
def login(self):
“““
登录并检查状态
:return:
“““
try:
self.driver.get(self.start_url)
print(self.driver.get_cookies())
username = self.index_login()
username_pattern = username[:3] + ‘ **** ‘ + username[-4:]
print(username_pattern)
page = self.driver.page_source
is_login = page.find(username_pattern)
print(is_login)
if is_login != -1:
print(‘登录成功‘)
except Exception as e:
print(e)
def index_login(self):
“““
主页下的登录模式
:return:
“““
get_login = self.driver.find_elements_by_xpath(‘//a[@class=“media_port“]‘)[0] # 登录/注册
print(get_login.text)
# url为login的input
get_login.click()
login_by_pwd = self.driver.find_element_by_xpath(‘//div[@class=“bgContent“]/div[2]/div[2]/div‘) # 切换到手机登录
print(login_by_pwd.text)
login_by_pwd.click()
input1 = self.driver.find_element_by_xpath(‘//div[@class=“bgContent“]/div[2]/div/div[2]/input‘) # 手机号码
input2 = self.driver.find_element_by_xpath(‘//div[@class=“bgContent“]/div[2]/div/div[3]/input‘) # 密码
print(input1.get_attribute(‘placeholder‘))
print(input2.get_attribute(‘placeholder‘))
username password = self._check_user_pass()
input1.send_keys(username)
input2.send_keys(password)
login_button = self.driver.find_element_by_xpath(‘//div[@class=“bgContent“]/div[2]/div/div[5]‘) # 点击登录
- 上一篇:python小游戏完美解决大作业.zip
- 下一篇:交大python课大作业
相关资源
- python爬虫样例
- Python爬虫代码
- 淘宝网页数据爬虫
- 《Python3网络爬虫开发实战》中文PDF
- 利用selenium编写的python网络爬虫-淘宝
- Python3网络爬虫实战思维导图
- python爬虫 破解js加密有道词典案列的
- python一加云相册批量爬虫
- 爬取51job网站招聘信息
- python爬取100个百度百科页面信息
- python爬虫之豆瓣电影使用requests、lx
- 爬虫从入门到精通内含如何应对反爬
- 最好中国大学近几年排名及python爬虫
- python爬虫爬取企业详细信息
- 58同城爬虫程序
- 链家房价爬虫
- requests 中文文档
- 抓取CSDN博客文章的简单爬虫python源码
- python新浪微博爬虫,爬取微博和用户
- python实现网络爬虫 爬取北上广深的天
- python3抓取头条新闻源码
- python版本selenium webdriver api
- 彼岸网4K高清图片爬虫源代码
- 音乐爬虫
- python图片爬取.rar
- Python scrapy爬取豆瓣电影top250
- 新浪微博爬虫代码+结果
- Python-微信公众号历史文章爬取api
- python 爬虫一键爬取 淘宝天猫宝贝页面
- python爬虫淘宝图片
评论
共有 条评论