当前位置:
首页 > Python基础教程 >
-
Python3标准库:urllib.robotparser Internet蜘蛛访问控制
1. urllib.request网络资源访问
robotparser为robots.txt文件格式实现一个解析器,提供了一个函数来检查给定的用户代理是否可以访问一个资源。这个模块可以用于合法蜘蛛或者需要抑制或限制的其他爬虫应用中。
1.1 robots.txt
robots.txt文件格式是一个基于文本的简单访问控制系统,用于自动访问Web资源的计算机程序(如“蜘蛛”“爬虫”等)。这个文件由记录构成,各记录会指定程序的用户代理标识符,后面是该代理不能访问的一个URL(或URL前缀)列表。
以下代码清单显示了https://pymotw.com/的robots.txt文件。
- Sitemap: https://pymotw.com/sitemap.xml
- User-agent: *
- Disallow: /admin/
- Disallow: /downloads/
- Disallow: /media/
- Disallow: /static/
- Disallow: /codehosting/
这个文件会阻止访问网站中某些计算资源代价昂贵的部分,如果搜索引擎试图索引这些部分,那么可能会让服务器负载过重。要得到更完整的robots.txt示例集,可以参考Web Robots页面。
1.2 测试访问权限
基于之前提供的数据,一个简单的爬虫应用可以使用RobotFileParser.can_fetch()测试是否允许下载一个页面。
- from urllib import parse
- from urllib import robotparser
- AGENT_NAME = 'PyMOTW'
- URL_BASE = 'https://pymotw.com/'
- parser = robotparser.RobotFileParser()
- parser.set_url(parse.urljoin(URL_BASE, 'robots.txt'))
- parser.read()
- PATHS = [
- '/',
- '/PyMOTW/',
- '/admin/',
- '/downloads/PyMOTW-1.92.tar.gz',
- ]
- for path in PATHS:
- print('{!r:>6} : {}'.format(
- parser.can_fetch(AGENT_NAME, path), path))
- url = parse.urljoin(URL_BASE, path)
- print('{!r:>6} : {}'.format(
- parser.can_fetch(AGENT_NAME, url), url))
- print()
can_fetch()的URL参数可以是一个相对于网站根目录的相对路径,也可以是一个完全URL。
1.3 长寿命蜘蛛
如果一个应用需要花很长时间来处理它下载的资源,或者受到抑制,需要在下载之间暂停,那么这样的应用应当以它已下载内容的寿命为根据,定期检查新的robots.txt文件。这个寿命并不是自动管理的,不过有一些简便方法可以方便地跟踪其寿命。
- from urllib import robotparser
- import time
- AGENT_NAME = 'PyMOTW'
- parser = robotparser.RobotFileParser()
- # Using the local copy
- parser.set_url('file:robots.txt')
- parser.read()
- parser.modified()
- PATHS = [
- '/',
- '/PyMOTW/',
- '/admin/',
- '/downloads/PyMOTW-1.92.tar.gz',
- ]
- for path in PATHS:
- age = int(time.time() - parser.mtime())
- print('age:', age, end=' ')
- if age > 1:
- print('rereading robots.txt')
- parser.read()
- parser.modified()
- else:
- print()
- print('{!r:>6} : {}'.format(
- parser.can_fetch(AGENT_NAME, path), path))
- # Simulate a delay in processing
- time.sleep(1)
- print()
这个例子有些极端,如果已下载的文件寿命超过一秒,那么它就会下载一个新的robots.txt文件。
作为一个更好的长寿命应用,在下载整个文件之前可能会请求文件的修改时间。另一方面,robots.txt文件通常很小,所以在此获取整个文档的开销并不昂贵。
栏目列表
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
SQL SERVER中递归
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
这是目前我见过最好的跨域解决方案!
减少回流与重绘
减少回流与重绘
如何使用KrpanoToolJS在浏览器切图
performance.now() 与 Date.now() 对比
一款纯 JS 实现的轻量化图片编辑器
关于开发 VS Code 插件遇到的 workbench.scm.
前端设计模式——观察者模式
前端设计模式——中介者模式
创建型-原型模式