-
python爬虫学习(一):BeautifulSoup库基础及一般元素提取方法
最近在看爬虫相关的东西,一方面是兴趣,另一方面也是借学习爬虫练习python的使用,推荐一个很好的入门教程:中国大学MOOC的《python网络爬虫与信息提取》,是由北京理工的副教授嵩天老师讲的,感觉讲的很清晰,课件也很详细。
学习爬虫,怎么也绕不开requests库和BeautifulSoup库,先说下BeautifulSoup库:
BeautifulSoup库通俗来说是【解析、遍历、维护“标签树”(例如html、xml等格式的数据对象)的功能库 】
一个简单的使用BeautifulSoup库的demo:
# coding:utf-8 from bs4 import BeautifulSoup import requests url = 'http://python123.io/ws/demo.html' r = requests.get(url) demo = r.text # 服务器返回响应 soup = BeautifulSoup(demo, "html.parser") """ demo 表示被解析的html格式的内容 html.parser表示解析用的解析器 """ print(soup) # 输出响应的html对象 print(soup.prettify()) # 使用prettify()格式化显示输出
得到一个BeautifulSoup对象后,一般通过BeautifulSoup类的基本元素来提取html中的内容
2.提取html中的信息
demo中的html内容如下:
(1)
print(soup.title) # 获取html的title标签的信息 print(soup.a) # 获取html的a标签的信息(soup.a默认获取第一个a标签,想获取全部就用for循环去遍历) print(soup.a.name) # 获取a标签的名字 print(soup.a.parent.name) # a标签的父标签(上一级标签)的名字 print(soup.a.parent.parent.name) # a标签的父标签的父标签的名字
(2)
print('a标签类型是:', type(soup.a)) # 查看a标签的类型 print('第一个a标签的属性是:', soup.a.attrs) # 获取a标签的所有属性(注意到格式是字典) print('a标签属性的类型是:', type(soup.a.attrs)) # 查看a标签属性的类型 print('a标签的class属性是:', soup.a.attrs['class']) # 因为是字典,通过字典的方式获取a标签的class属性 print('a标签的href属性是:', soup.a.attrs['href']) # 同样,通过字典的方式获取a标签的href属性
(3)
print('第一个a标签的内容是:', soup.a.string) # a标签的非属性字符串信息,表示尖括号之间的那部分字符串 print('a标签的非属性字符串的类型是:', type(soup.a.string)) # 查看标签string字符串的类型 print('第一个p标签的内容是:', soup.p.string) # p标签的字符串信息(注意p标签中还有个b标签,但是打印string时并未打印b标签,说明string类型是可跨越多个标签层次)
介绍一下find_all()方法:
常用通过find_all()方法来查找标签元素:<>.find_all(name, attrs, recursive, string, **kwargs) ,返回一个列表类型,存储查找的结果
• name:对标签名称的检索字符串
• attrs:对标签属性值的检索字符串,可标注属性检索
• recursive:是否对子孙全部检索,默认True
• string:<>…</>中字符串区域的检索字符串
(1)
print('所有a标签的内容:', soup.find_all('a')) # 使用find_all()方法通过标签名称查找a标签,返回的是一个列表类型 print('a标签和b标签的内容:', soup.find_all(['a', 'b'])) # 把a标签和b标签作为一个列表传递,可以一次找到a标签和b标签
(2)
for t in soup.find_all('a'): # for循环遍历所有a标签,并把返回列表中的内容赋给t print('t的值是:', t) # link得到的是标签对象 print('t的类型是:', type(t)) print('a标签中的href属性是:', t.get('href')) # 获取a标签中的url链接
(3)
for i in soup.find_all(True): # 如果给出的标签名称是True,则找到所有标签 print('标签名称:', i.name) # 打印标签名称
(4)
print('href属性为http..的a标签元素是:', soup.find_all('a', href='http://www.icourse163.org/course/BIT-268001')) # 标注属性检索 print('class属性为title的标签元素是:', soup.find_all(class_='title')) # 指定属性,查找class属性为title的标签元素,注意因为class是python的关键字,所以这里需要加个下划线'_' print('id属性为link1的标签元素是:', soup.find_all(id='link1')) # 查找id属性为link1的标签元素
(5)
print(soup.head) # head标签 print(soup.head.contents) # head标签的儿子标签,contents返回的是列表类型 print(soup.body.contents) # body标签的儿子标签 """对于一个标签的儿子节点,不仅包括标签节点,也包括字符串节点,比如返回结果中的 \n"""
(6)
print(len(soup.body.contents)) # 获得body标签儿子节点的数量 print(soup.body.contents[1]) # 通过列表索引获取第一个节点的内容
(7)
print(type(soup.body.children)) # children返回的是一个迭代对象,只能通过for循环来使用,不能直接通过索引来读取其中的内容 for i in soup.body.children: # 通过for循环遍历body标签的儿子节点 print(i.name) # 打印节点的名字
出处:https://www.cnblogs.com/hanmk/p/8724162.html
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数