当前位置:
首页 > temp > python入门教程 >
-
Python爬取美女写真照的全站异步爬虫,设置了反爬我也要爬给你看
说明
1,修正了bug,并且现在可以自己选择开始下载页和要下载的页数。
2,打包了我的python运行环境和代码,需要的可以直接下载压缩包,在解压后的文件夹内运行
pip install -r requirements.txt
即可将你的python环境变成同我一样,运行就应该不会出错了。
说在前面:1,因为用的是异步方法,食用本爬虫前,请先
pip install aiohttp,aiofiles
2,这个网站设置了防盗链以及反爬,网站图片url无法直接访问,自己修改时,请在请求头中加上Referer字段,网站对同一ip的并发访问也有限制,超过7,30秒左右基本就会被暂时禁止访问。所以并发连接数不要太大,7够用了。具体效果看截图。
很多人学习python,不知道从何学起。 很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。 很多已经做案例的人,却不知道如何去学习更加高深的知识。 那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码! QQ群:861355058 欢迎加入,一起讨论 一起学习!
效果:
截图
Python源码
成品:
链接:https://pan.baidu.com/s/1utPiat5U6ThkRBBczMs00g
提取码:7rz7
tulishe.py
import asyncio import random import time import aiohttp import aiofiles import requests from lxml import etree import os import re from fake_useragent import UserAgent from functools import wraps from asyncio.proactor_events import _ProactorBasePipeTransport def silence_event_loop_closed(func): @wraps(func) def wrapper(self, *args, **kwargs): try: return func(self, *args, **kwargs) except RuntimeError as e: if str(e) != 'Event loop is closed': raise return wrapper _ProactorBasePipeTransport.__del__ = silence_event_loop_closed(_ProactorBasePipeTransport.__del__) ua = UserAgent() headers = {'User-Agent': ua.random, 'Referer': 'http://www.tulishe.com'} class tulishe: def __init__(self): self.write_num = 0 async def get_url(self, url): async with aiohttp.ClientSession() as client: async with client.get(url, headers=headers) as resp: if resp.status == 200: return await resp.text() async def html_parse(self, html): semaphore = asyncio.Semaphore(5) html_parse = etree.HTML(html) url_list = html_parse.xpath('//div[@class="img"]//a[@rel="bookmark"]/@href') tasks = [asyncio.create_task(self.img_parse(url, semaphore)) for url in url_list] await asyncio.wait(tasks) async def img_parse(self, h_url, sem): async with sem: semaphore = asyncio.Semaphore(5) h_html = await self.get_url(h_url) h_html_parse = etree.HTML(h_html) title = h_html_parse.xpath('//h1[@class="article-title"]/text()')[0] img_demo_url = h_html_parse.xpath( '//*[@id="gallery-2"]/div[@class="gallery-item gallery-blur-item"]/img/@src') img_url_list = [] for d_url in img_demo_url: img_url = d_url.split('=')[1].split('&')[0] img_url_list.append(img_url) i_u_l = h_html_parse.xpath( '//div[@class="gallery-item gallery-fancy-item"]/a/@href') full_list = i_u_l + img_url_list index_list = list(range(1, len(full_list) + 1)) index_dict = dict(zip(full_list, index_list)) tasks = [asyncio.create_task(self.img_con(i_url, i_num, title, semaphore)) for i_url, i_num in index_dict.items()] await asyncio.wait(tasks) async def img_con(self, url, num, title, semaphore): async with semaphore: async with aiohttp.ClientSession() as client: async with client.get(url, headers=headers) as resp: if resp.status == 200: img_con = await resp.read() await self.write_img(img_con, num, title) else: print('请求出错,请尝试调低并发数重新下载!!') async def write_img(self, img_con, num, title): if not os.path.exists(title): os.makedirs(title) async with aiofiles.open(title + '/' + f'{num}.jpg', 'wb') as f: print(f'正在下载{title}/{num}.jpg') await f.write(img_con) self.write_num += 1 else: async with aiofiles.open(title + '/' + f'{num}.jpg', 'wb') as f: print(f'正在下载{title}/{num}.jpg') await f.write(img_con) self.write_num += 1 async def main(self, ): q_start_num = input('输入要从第几页开始下载(按Entry默认为1):') or '1' start_num = int(q_start_num) total_num = int(input('请输入要下载的页数:')) + start_num print('*' * 74) start_time = time.time() for num in range(start_num, total_num + 1): url = f'http://www.tulishe.com/all/page/{num}' html = await self.get_url(url) print('开始解析下载>>>') await self.html_parse(html) end_time = time.time() print(f'本次共下载写真图片{self.write_num}张,共耗时{end_time - start_time}秒。') a = tulishe() asyncio.run(a.main())
结语:
可以看到,虽然有反爬限制,但1秒10张的速度是完全可以实用的,虽然之前想尝试用代{过}{滤}理池规避,但实际实验后发现,免费的完全不靠谱,可用的又太贵,只是用来日常学习实用,还是采用限制并发比较实际。
来源:https://www.cnblogs.com/pythonQqun200160592/p/15533193.html
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数