当前位置:
首页 > temp > 简明python教程 >
-
python爬虫实战以及数据可视化
需要准备的环境:
(1)python3.8
(2)pycharm
(3)截取网络请求信息的工具,有很多,百度一种随便用即可。
第一:首先通过python的sqlalchemy模块,来新建一个表。
第二:通过python中的request模块接口的形式调取数据。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
思路:( 1 )先获取所有城市信息:需要用request模块中的【requests.session()】session对象保存访问接口需要用到的信息:例如cookies等信息。 ( 2 )通过城市分组,再用正则表达式筛选来获取python的岗位信息。 其中多次用到列表生成器,以后要多注意这方面的冷知识;不然会有莫名的错误。、 代码思路:只要保证可复用即可,其实很简单,毕竟Python是一门”干净“的语言。 ( 1 )先把请求方法抽集到一个方法中: session.get(url(地址),headers(头信息),,timeout(时间),proxies(代理信息)) ( 2 )先获取所有城市,利用列表生成器生成一个 list 把数据装进去。 ( 3 )利用循环以城市分组拉去Python岗位信息。 for city in lagou.city_list: 调用拉取岗位信息的方法。 ( 4 )导入multiprocessing模块,设置多线程加速抓取:multiprocessing.Pool(自定 int or long ) 需要注意的是:必须利用代理,以及多线程拉取。否则效率低下,可能导致信息不全,时间太慢。 |
第三:将拉取的数据存入表中
1
|
思路:( 1 )由于拉取的是JSON格式,所以解读JSON格式,也是很繁琐的,需要把要的数据一条一条对应到固定的Key里,如图: |
1
2
|
( 2 )利用session对象的query方法,可以过滤查询想要的数据。 session.query(Lagoutables.workYear). filter (Lagoutables.crawl_date = = self .date). all () |
第四:利用前台模板,将数据可视化。
1
2
3
|
( 1 )首先需要通过编写JS文件,将几个图的数据放在一个方法里提高聚合,抽取出来提高可复用性。 ( 2 )然后通过拼接把获取到的JSON格式的数据,按key:balue格式分配出来。 代码如下: 利用Ajax通信 |
结果展示:
栏目列表
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数