当前位置:
首页 > temp > 简明python教程 >
-
Python爬虫实战,argparse模块,Github用户粉丝数据爬虫
前言
主要目标是爬取Github上指定用户的粉丝数据以及对爬取到的数据进行一波简单的可视化分析。
让我们愉快地开始吧~
开发工具
Python版本:3.6.4
相关模块:
bs4模块;
requests模块;
argparse模块;
pyecharts模块;
以及一些python自带的模块。
环境搭建
安装Python并添加到环境变量,pip安装需要的相关模块即可。
数据爬取
感觉好久没用beautifulsoup了,所以今天就用它来解析网页从而获得我们自己想要的数据呗。以我自己的账户为例:
我们先抓取所有关注者的用户名,它在类似如下图所示的标签中:
用beautifulsoup可以很方便地提取它们:
'''获得followers的用户名'''
def getfollowernames(self):
print('[INFO]: 正在获取%s的所有followers用户名...' % self.target_username)
page = 0
follower_names = []
headers = self.headers.copy()
while True:
page += 1
followers_url = f'https://github.com/{self.target_username}?page={page}&tab=followers'
try:
response = requests.get(followers_url, headers=headers, timeout=15)
html = response.text
if 've reached the end' in html:
break
soup = BeautifulSoup(html, 'lxml')
for name in soup.find_all('span', class_='link-gray pl-1'):
print(name)
follower_names.append(name.text)
for name in soup.find_all('span', class_='link-gray'):
print(name)
if name.text not in follower_names:
follower_names.append(name.text)
except:
pass
time.sleep(random.random() + random.randrange(0, 2))
headers.update({'Referer': followers_url})
print('[INFO]: 成功获取%s的%s个followers用户名...' % (self.target_username, len(follower_names)))
return follower_names
接着,我们就可以根据这些用户名进入到他们的主页来抓取对应用户的详细数据了,每个主页链接的构造方式为:
https://github.com/ + 用户名
例如: https://github.com/CharlesPikachu
我们想要抓取的数据包括:
同样地,我们利用beautifulsoup来提取这些信息:
for idx, name in enumerate(follower_names):
print('[INFO]: 正在爬取用户%s的详细信息...' % name)
user_url = f'https://github.com/{name}'
try:
response = requests.get(user_url, headers=self.headers, timeout=15)
html = response.text
soup = BeautifulSoup(html, 'lxml')
# --获取用户名
username = soup.find_all('span', class_='p-name vcard-fullname d-block overflow-hidden')
if username:
username = [name, username[0].text]
else:
username = [name, '']
# --所在地
position = soup.find_all('span', class_='p-label')
if position:
position = position[0].text
else:
position = ''
# --仓库数, stars数, followers, following
overview = soup.find_all('span', class_='Counter')
num_repos = self.str2int(overview[0].text)
num_stars = self.str2int(overview[2].text)
num_followers = self.str2int(overview[3].text)
num_followings = self.str2int(overview[4].text)
# --贡献数(最近一年)
num_contributions = soup.find_all('h2', class_='f4 text-normal mb-2')
num_contributions = self.str2int(num_contributions[0].text.replace('\n', '').replace(' ', ''). \
replace('contributioninthelastyear', '').replace('contributionsinthelastyear', ''))
# --保存数据
info = [username, position, num_repos, num_stars, num_followers, num_followings, num_contributions]
print(info)
follower_infos[str(idx)] = info
except:
pass
time.sleep(random.random() + random.randrange(0, 2))
数据可视化
这里以我们自己的粉丝数据为例,大概1200条吧。
先来看看他们在过去一年里提交的代码次数分布吧:
提交最多的一位名字叫fengjixuchui,在过去一年一共有9437次提交。平均下来,每天都得提交20多次,也太勤快了。
再来看看每个人拥有的仓库数量分布呗:
本以为会是条单调的曲线,看来低估各位了。
接着来看看star别人的数量分布呗:
再来看看这1000多个人拥有的粉丝数量分布呗:
简单看了下,有不少小伙伴的followers数量比我还多。果然高手在民间。
原文:https://www.cnblogs.com/daimubai/p/14939234.html
栏目列表
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数