当前位置:
首页 > temp > python入门教程 >
-
【Python爬虫实战项目】Python爬虫批量下载去哪儿网站旅游数据保存本地
前言
今天给大家介绍的是Python爬虫批量下载去哪儿网站旅游景点信息数据,在这里给需要的小伙伴们代码,并且给出一点小心得。
首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样的纯文本数据爬取的人会很多,所以我们需要考虑更换代理IP和随机更换请求头的方式来对旅游景点信息数据进行爬取。
在每次进行爬虫代码的编写之前,我们的第一步也是最重要的一步就是分析我们的网页。
通过分析我们发现在爬取过程中速度比较慢,所以我们还可以通过禁用谷歌浏览器图片、JavaScript等方式提升爬虫爬取速度。
开发工具
Python版本: 3.6
相关模块:
requests模块
parsel模块
time模块
环境搭建
安装Python并添加到环境变量,pip安装需要的相关模块即可。
文中完整代码及文件,评论留言获取
数据来源查询分析
浏览器中打开我们要爬取的页面
按F12进入开发者工具,查看我们想要的去哪儿网站旅游景点信息数据在哪里
这里我们需要页面数据就可以了
代码实现
for page in range(1, 12):
# '{}'.format(page) 字符串格式化的方法
print(f'===============================正在爬取第{page}页数据内容=======================================')
time.sleep(2)
url = f'https://piao.qunar.com/ticket/list_%E6%B9%98%E8%A5%BF.html?from=mps_search_suggest_h&keyword=%E6%B9%98%E8%A5%BF&page={page}'
# 请求头:把python代码伪装成浏览器 给服务器发送请求
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36',
'Cookie': '你的Cookie'
}
response = requests.get(url=url, headers=headers)
# 获取网页文本数据 response.text
# print(response.text)
# 解析数据
selector = parsel.Selector(response.text)
# css选择器 根据标签提取数据内容
# 第一次提取 所以景区标签内容 返回的页是一个对象 列表
# id选择器 直接可以使用# 开头
lis = selector.css('#search-list .sight_item_detail')
for li in lis:
title = li.css('.name::text').get() # 景区
level = li.css('.level::text').get() # 星级
area = li.css('.area a::text').get() # 地区
# attr属性选择器 replace() 字符串替换
hot = li.css('.product_star_level em::attr(title)').get().replace('热度: ', '') # 热度
hot = int(float(hot)*100)
address = li.css('.address span::attr(title)').get() # 地址
price = li.css('.sight_item_price em::text').get() # 价格
hot_num = li.css('.hot_num::text').get() # 销量
intro = li.css('.intro::text').get() # 简介
href = li.css('.name::attr(href)').get() # 详情页
href = 'https://piao.qunar.com/' + href
dit = {
'景区': title,
'星级': level,
'地区': area,
'热度': hot,
'销量': hot_num,
'地址': address,
'价格': price,
'简介': intro,
'详情页': href,
}
Cookie获取
效果展示
最后
今天的分享到这里就结束了 ,感兴趣的朋友也可以去试试哈
对文章有问题的,或者有其他关于python的问题,可以在评论区留言或者私信我哦
觉得我分享的文章不错的话,可以关注一下我,或者给文章点赞(/≧▽≦)/
出处:https://www.cnblogs.com/guzichuan/p/17046903.html
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数