资源简介
可以分类下载汽车之家图片,自己设定下载哪些部分的图片,可以自己设定
代码片段和文件信息
import requests
import re
import time
car_url=“https://www.autohome.com.cn/grade/carhtml/F.html“
zg=[]
temp=[‘A‘‘B‘‘C‘‘D‘‘F‘‘G‘‘H‘‘J‘‘K‘‘L‘‘M‘‘N‘‘O‘‘P‘‘Q‘‘R‘‘S‘‘T‘‘V‘‘W‘‘X‘‘Y‘‘Z‘]
for i in temp:
car_url=“https://www.autohome.com.cn/grade/carhtml/“+i+“.html“
zg.append(car_url)
#print(car_url)
#print(zg)
#下载器
def download(url):
try:
response=requests.get(url)
response.encoding=‘gb2312‘
if response:
global html
html=response.text
return html
#print(html)
except Exception as e:
print(e)
for car_url in zg:
download(car_url)
html_1=html
img_url_1=re.findall(r‘href=“//car.autohome.com.cn/pic/series/(.*?).html#pvareaid=103448“‘ html_1 )
#print(len(img_url_1))
#获取所有B开头车型图片库URL
#img_url_item=list(map(lambda x: ‘https://car.autohome.com.cn/pic/series‘+ximg_url_1))
#print(img_url_item)
temp=[]
for i in img_url_1:
#IP为-10.html#pvareaid=2042220,外饰为-1.html#pvareaid=2042220,门板为-3.html#pvareaid=2042220
img_url_item_2 = ‘https://car.autohome.com.cn/pic/series/‘ + i + ‘-1.html#pvareaid=2042220‘
#print(img_url_item_2)
temp.append(img_url_item_2)
ip_list=temp
#print(len(ip_list))
for url in ip_list:
try:
ip_response=requests.get(url)
if ip_response:
#取出包在里面的网页源码
html_2=ip_response.text
#print(html_2)
#获取文档图片url用正则表达式
#
img_url=re.findall(r‘ a=img_url[0:12:8]
#print(a)
img_url_1= list(map(lambd
相关资源
- 一个多线程智能爬虫,爬取网站小说
- 基于Python爬虫爬取天气预报信息
- 顶点小说单本书爬虫.py
- 一个简单的python爬虫
- 豆瓣爬虫;Scrapy框架
- 中国城市经纬度爬虫.ipynb
- Python爬虫数据分析可视化
- 网站列表信息爬虫
- 百度图片爬虫(python版)
- python爬取小说59868
- 彼岸花网壁纸爬虫
- Python 爬虫小说.ipynb
- 爬虫爬取网易云音乐
- 北邮python爬虫学堂在线
- python简单爬虫
- 爬取58同城二手房信息.py
- 知网爬虫软件(python)
- python爬虫爬取微博热搜
- python爬虫爬取旅游信息(附源码,c
- python爬虫爬取豆瓣电影信息
- 爬取上百张妹子图源码可直接运行
- Python爬虫实战入门教程
- 网络爬虫(pachong_anjuke.py)
- Python-京东抢购助手包含登录查询商品
- python网络爬虫获取景点信息源码
- python爬取维基百科程序语言消息盒(
- python新浪微博爬虫
- 12306爬虫实现
- 中国裁判文书网爬虫
- Python爬虫相关书籍.zip
评论
共有 条评论