-
15-python爬取百度贴吧-excel存储
让我们爬取百度贴吧旅游信息,看看哪些地方是大家旅游关注的热点。
不要问我这个十一去哪儿旅游了,我还在家没日没夜的码代码。
这次我们用 urllib
爬取页面,再用BeautifulSoup
提取有用信息,最后用 xlsxwriter
把获取的信息 写入到excel表
一 、用到技术
-
python 基础
-
xlsxwriter
用来写入excel文件的 -
urllib
python内置爬虫工具 -
BeautifulSoup
解析提取数据
二、 目标页面
https://tieba.baidu.com/f?kw=%E6%97%85%E6%B8%B8&ie=utf-8&pn=0
三、结果
四、安装 必要的库
- win+R 打开运行
- 输出cmd 进入控制台
-
分别安装
beautifulsoup4
,lxml
,xlsxwriter
pip install lxml
pip install beautifulsoup4
pip install xlsxwriter
五、分析页面
1. 页面规律
我们单击分页按钮,拿到页面最后一个参数的规律
第二页:https://tieba.baidu.com/f?kw=旅游&ie=utf-8&pn= 50
第三页:https://tieba.baidu.com/f?kw=旅游&ie=utf-8&pn= 100
第四页:https://tieba.baidu.com/f?kw=旅游&ie=utf-8&pn= 150
2. 页面信息
旅游信息列表
打开网页https://tieba.baidu.com/f?kw=旅游&ie=utf-8&pn= 50
按键盘F12
键或者 鼠标右键"检查元素"(我用的谷歌chrome浏览器)
发现所有旅游列表都有个共同的class类名j_thread_list
作者与创建时间
作者的class为frs-author-name
,创建时间的class为is_show_create_time
标题
标题的class为j_th_tit
六、全部代码
import xlsxwriter
# 用来写入excel文件的
import urllib.parse
# URL编码格式转换的
import urllib.request
# 发起http请求的
from bs4 import BeautifulSoup
# css方法解析提取信息
url='https://tieba.baidu.com/f?kw='+urllib.parse.quote('旅游')+'&ie=utf-8&pn='
# 百度贴吧旅游信息
# parse.quote("旅游") # 结果为%E6%97%85%E6%B8%B8
herders={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36', 'Referer':'https://tieba.baidu.com/','Connection':'keep-alive'}
# 请求头信息
data = []
# 所有爬虫的数据都存放到 这个data列表里面
"""
getList 获取分页中的列表信息
url 分页地址
"""
def getList(url):
req = urllib.request.Request(url,headers=herders)
# 设置请求头
response=urllib.request.urlopen(req)
# 发起请求得到 响应结果response
htmlText = response.read().decode("utf-8").replace("<!--","").replace("-->","")
# htmlText = 响应结果read读取.decode 转换为utf文本.replace 替换掉html中的注释
# 我们需要的结果在注释中,所以要先替换掉注释标签 <!-- -->
html = BeautifulSoup(htmlText,"lxml")
# 创建beautifulSoup对象
thread_list=html.select(".j_thread_list")
# 获取到所有的旅游类别
# 遍历旅游列表
for thread in thread_list:
title = thread.select(".j_th_tit")[0].get_text()
author = thread.select(".frs-author-name")[0].get_text()
time= thread.select(".is_show_create_time")[0].get_text()
# 提取标题,作者,事件
print(title) # 打印标签
data.append([title,author,time])
# 追加到总数据中
"""
获取到所有的分页地址,最大5页
url 页面地址
p=5 最多5页
"""
def getPage(url,p=5):
for i in range(5):
link = url+str(i*50)
# 再一次拼接 第1页0 第2页50 第3页100 第4页150
getList(link)
# 执行获取页面函数getList
"""
写入excel文件
data 被写入的数据
"""
def writeExecl(data):
lens = len(data)
# 获取页面的长度
workbook = xlsxwriter.Workbook('travel.xlsx')
# 创建一个excel文件
sheet = workbook.add_worksheet()
# 添加一张工作表
sheet.write_row("A1",["标题","作者","时间"])
# 写入一行标题
for i in range(2, lens + 2):
sheet.write_row("A"+str(i),data[i - 2])
# 遍历data 写入行数据到excel
workbook.close()
# 关闭excel文件
print("xlsx格式表格写入数据成功!")
"""
定义主函数
"""
def main():
getPage(url,5) #获取分页
writeExecl(data) #写入数据到excel
# 如果到模块的名字是__main__ 执行main主函数
if __name__ == '__main__':
main()
七、单词表
main 主要的
def (define) 定义
getPage 获取页面
writeExcel 写入excel
workbook 工作簿
sheet 表
write_row 写入行
add 添加
close 关闭
len length长度
data 数据
range 范围
str (string)字符串
append 追加
author 作者
select 选择
Beautiful 美丽
Soup 糖
herders 头信息
response 响应
read 读
decode 编码
Request 请求
parse 解析
quote 引用
在线练习:https://www.520mg.com/it
出处:
https://www.cnblogs.com/bigzql/p/13808182.html
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数