当前位置:
首页 > temp > python入门教程 >
-
Python爬取csnd文章,并转换为PDF文件
本篇文章流程(爬虫基本思路):
一. 数据来源分析 (只有当你找到数据来源的时候, 才能通过代码实现)
-
确定需求(要爬取的内容是什么?)
爬取CSDN文章内容 保存pdf - 通过开发者工具进行抓包分析 分析数据从哪里来的?
二. 代码实现过程
- 发送请求 对于文章列表页面发送请求
- 获取数据 获取网页源代码
- 解析数据 文章的url 以及 文章标题
- 发送请求 对于文章详情页url地址发送请求
- 获取数据 获取网页源代码
- 解析数据 提取文章标题 / 文章内容
- 保存数据 把文章内容保存成html文件
- 把html文件转成pdf文件
- 多页爬取
导入模块
import requests # 数据请求 发送请求 第三方模块 pip install requests import parsel # 数据解析模块 第三方模块 pip install parsel import os # 文件操作模块 import re # 正则表达式模块 import pdfkit # pip install pdfkit
创建文件夹
filename = 'pdf\\' # 文件名字 filename_1 = 'html\\' if not os.path.exists(filename): #如果没有这个文件夹的话 os.mkdir(filename) # 自动创建一下这个文件夹 if not os.path.exists(filename_1): #如果没有这个文件夹的话 os.mkdir(filename_1) # 自动创建一下这个文件夹
发送请求
for page in range(1, 11): print(f'=================正在爬取第{page}页数据内容=================') url = f'https://blog.csdn.net/qdPython/article/list/{page}' # python代码对于服务器发送请求 >>> 服务器接收之后(如果没有伪装)被识别出来, 是爬虫程序, >>> 不会给你返回数据 # 客户端(浏览器) 对于 服务器发送请求 >>> 服务器接收到请求之后 >>> 浏览器返回一个response响应数据 # headers 请求头 就是把python代码伪装成浏览器进行请求 # headers参数字段 是可以在开发者工具里面进行查询 复制 # 并不是所有的参数字段都是需要的 # user-agent: 浏览器的基本信息 (相当于披着羊皮的狼, 这样可以混进羊群里面) # cookie: 用户信息 检测是否登录账号 (某些网站 是需要登录之后才能看到数据, B站一些数据内容) # referer: 防盗链 请求你的网址 是从哪里跳转过来的 (B站视频内容 / 妹子图图片下载 / 唯品会商品数据) # 根据不同的网站内容 具体情况 具体分析 headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36' } # 请求方式: get请求 post请求 通过开发者工具可以查看url请求方式是什么样的 # 搜索 / 登录 /查询 这样是post请求 response = requests.get(url=url, headers=headers)
数据解析
# 需要把获取到的html字符串数据转成 selector 解析对象 selector = parsel.Selector(response.text) # getall 返回的是列表 href = selector.css('.article-list a::attr(href)').getall()
如果把列表里面每一个元素 都提取出来
for index in href: # 发送请求 对于文章详情页url地址发送请求 response_1 = requests.get(url=index, headers=headers) selector_1 = parsel.Selector(response_1.text) title = selector_1.css('#articleContentId::text').get() new_title = change_title(title) content_views = selector_1.css('#content_views').get() html_content = html_str.format(article=content_views) html_path = filename_1 + new_title + '.html' pdf_path = filename + new_title + '.pdf' with open(html_path, mode='w', encoding='utf-8') as f: f.write(html_content) print('正在保存: ', title)
替换特殊字符
def change_title(name): mode = re.compile(r'[\\\/\:\*\?\"\<\>\|]') new_name = re.sub(mode, '_', name) return new_name
运行代码,即可下载HTML文件
转换成PDF文件
config = pdfkit.configuration(wkhtmltopdf=r'C:\Program Files\wkhtmltopdf\bin\wkhtmltopdf.exe') pdfkit.from_file(html_path, pdf_path, configuration=config)
出处:https://www.cnblogs.com/qshhl/p/15210955.html
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数