首页 > temp > python入门教程 >
-
Python Pandas的使用 !!!!!详解
Pandas是一个基于python中Numpy模块的一个模块
l = [0,1,7,9,np.NAN,None,1024,512]
# ⽆论是numpy中的NAN还是Python中的None在pandas中都以缺失数据NaN对待
s1 = pd.Series(data = l) # pandas⾃动添加索引
s2 = pd.Series(data = l,index = list('abcdefhi'),dtype='float32') # 指定⾏索引
# 传⼊字典创建,key⾏索引
s3 = pd.Series(data = {'a':99,'b':137,'c':149},name = 'Python_score')
display(s1,s2,s3)
import numpy as np
import pandas as pd
# index 作为⾏索引,字典中的key作为列索引,创建了3*3的DataFrame表格⼆维数组
df1 = pd.DataFrame(data = {'Python':[99,107,122],'Math':[111,137,88],'En': [68,108,43]},# key作为列索引
index = ['张三','李四','Michael']) # ⾏索引
df2 = pd.DataFrame(data = np.random.randint(0,151,size = (5,3)),
index = ['Danial','Brandon','softpo','Ella','Cindy'],# ⾏索引
columns=['Python','Math','En'])# 列索引
display(df1,df2)
import numpy as np
import pandas as pd
df = pd.DataFrame(data = np.random.randint(0,151,size=(150,3)),
index = None, # 行索引默认
columns=['A','B','C'])#列索引
df.head(10)#显示前十行 !!默认是五行!!
df.tail(10)#显示后十行
df.shape#查看行数和列数
df.dtypes#查看数据类型
df.index#查看行索引
df.value# 对象值,二维数组
df.describe()#查看数据值列的汇总统计,计数,平均值,标准差,最小值,四分位数,最大值
df.info()#查看列索引,数据类型,非空计数和内存信息
第四部分 数据的输入输出
第一节csv
df = DataFrame(data = np.random.randint(0,50,size = [50,5]), # 薪资情况
columns=['IT','化⼯','⽣物','教师','⼠兵'])
#保存到相对路劲下文件命名为
df.to_csv('./salary.csv',
sep = ';',#分割符
header = True,#是否保存列索引
index = True)#是否保存行索引、
#加载
pd.read_csv('./salary.csv',
sep = ';',# 默认是逗号
header = [0],#指定列索引
index_col=0) # 指定⾏索引
#加载
pd.read_table('./salary.csv', # 和read_csv类似,读取限定分隔符的⽂本⽂件 sep = ';', header = [0],#指定列索引 index_col=1) # 指定⾏索引,IT作为⾏索引
第⼆节 Excel
import numpy as np
import pandas as pd
df1 = pd.DataFrame(data = np.random.randint(0,50,size = [50,5]), # 薪资情况
columns=['IT','化⼯','⽣物','教师','⼠兵'])
df2 = pd.DataFrame(data = np.random.randint(0,50,size = [150,3]),# 计算机科⽬的考试成绩
columns=['Python','Tensorflow','Keras'])
# 保存到当前路径下,⽂件命名是:salary.xls
df1.to_excel('./salary.xls',
sheet_name = 'salary',# Excel中⼯作表的名字
header = True,# 是否保存列索引
index = False) # 是否保存⾏索引,保存⾏索引
pd.read_excel('./salary.xls',
sheet_name=0,# 读取哪⼀个Excel中⼯作表,默认第⼀个
header = 0,# 使⽤第⼀⾏数据作为列索引
names = list('ABCDE'),# 替换⾏索引
index_col=1)# 指定⾏索引,B作为⾏索引
# ⼀个Excel⽂件中保存多个⼯作表
with pd.ExcelWriter('./data.xlsx') as writer:
df1.to_excel(writer,sheet_name='salary',index = False)
df2.to_excel(writer,sheet_name='score',index = False)
pd.read_excel('./data.xlsx',
sheet_name='salary') # 读取Excel中指定名字的⼯作表
import pandas as pd
# SQLAlchemy是Python编程语⾔下的⼀款开源软件。提供了SQL⼯具包及对象关系映射(ORM)⼯具
from sqlalchemy import create_engine
df = pd.DataFrame(data = np.random.randint(0,50,size = [150,3]),# 计算机科⽬的考试
成绩
columns=['Python','Tensorflow','Keras'])
# 数据库连接
conn = create_engine('mysql+pymysql://root:12345678@localhost/pandas?
charset=UTF8MB4')
# 保存到数据库
df.to_sql('score',#数据库中表名
conn,# 数据库连接
if_exists='append')#如果表名存在,追加数据
# 从数据库中加载
pd.read_sql('select * from score limit 10', # sql查询语句
conn, # 数据库连接
index_col='Python') # 指定⾏索引名
---------------------------------------------!!!!!!!!!第一次更新!!!!!!!!!!!----------------------------------------------------------
第五部分 数据的选取
第一节 数据获取
!!!---先导入个数据---!!!
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),# 计算机科⽬的考试成绩
index = list('ABCDEFGHIJ'),# ⾏标签
columns=['Python','Tensorflow','Keras'])
df.Python# 查看所在列数据
df['Python']# 查看所在列数据
df[['Python','Keras']]#获取多列数据
df[1:3]#行切片操作 !!!--此处切片操作与数据的切片操作如出一辙--!!!
使用 loc[] 进行数据获取 loc通过行列标签进行索引取数操作
df.loc[['A','B']]#选取行标签
df.loc[['A','B'],['Python','Keras']]#根据行列标签选取对饮数据
df.loc[:,['Python','Keras']]#保留所有行
df.loc[::2,['Python','Keras']]#每隔2行取出一行数据
df.loc['A',['Python','Keras']]#根据行标签选取出对应数据
#此处就不截图展示了
使用 iloc[] 进行数据获取 iloc通过行列整数标签进行索引取数操作
df.iloc[2:4]#利用整数行切片操作与Numpy相似 !!!--此处切片操作与数据的切片操作如出一辙--!!!
df.iloc[1:3,1:2]#利用整数对行和列进行切片
df.iloc[1:3:]#行切片
df.iloc[:,0:1]#列切片
Boolean索引
cond1 = df.Python > 100 # 判断Python分数是否⼤于100,返回值是boolean类型的Series
df[cond1] # 返回Python分数⼤于100分的⽤户所有考试科⽬数据
cond2 = (df.Python > 50) & (df['Keras'] > 50) # &与运算
df[cond2] # 返回Python和Keras同时⼤于50分的⽤户的所有考试科⽬数据
df[df > 50]# 选择DataFrame中满⾜条件的值,如果满⾜返回值,不然返回空数据NaN
df[df.index.isin(['A','C','F'])] # isin判断是否在数组中,返回也是boolean类型值
第六部分 数据集成
第⼀节 concat数据串联
#再建立两个数据矩阵
df1 = pd.DataFrame(np.random.randint(1,151,size=10),
index = list('ABCDEFGHIJ'),
columns=['Science'])
df2 = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),
index = list('KLMNOPQRST'),
columns=['Python','Tensorflow','Keras'])
pd.concat([df,df2],axis=0)#df2串联拼接到df1下方
pd.concat([df,df1],axis=1)#df1串联拼接到df的左侧
df.append(df1) # 在df1后⾯追加df2
第二节 插入
insert()插入一列
注意:如果使用insert()插入一列时,那么插入的这一列的长度必须和被插入的行数长度相等
#插入一列c++
df.insert(loc=1,
column='C++',
value=np.random.randint(0,151,size=(10)))
df.insert(loc = 1,column='Python3.8,value=2048)
第三节 数据的链接(join SQL风格)
#先建立两组数据
df1 = pd.DataFrame(data = {'sex':np.random.randint(0,2,size=6),'name':['九州','九周','Nineweek','Mrs佟','小A','小C']})
df2 = pd.DataFrame(data = {'score':np.random.randint(90,151,size=6),'name':['九州','九周','Nineweek','Mrs佟','小A','小Ming']})
pd.merge(df1,df2)
#(内连接) 在使用merge()合并中merge自动去除了空数据
pd.merge(df1,df2,how='left')#左链接
pd.merge(df1,df2,how='right')#右链接
---------------------------------------------!!!!!!!!!第二次更新!!!!!!!!!!!----------------------------------------------------------
第七部分 数据清洗
第⼀节 duplicated筛选重复数据
duplicated是以自上向下的顺序进行筛选如果行值相同就返回TRUE。
#创建一个分值数据
df2 = pd.DataFrame(data={'Name':['九州','Mrs佟','Nineweek',None,np.NAN,'Mrs佟'],'Sex':[0,1,0,1,0,1],'Score':[89,100,67,90,98,100]})
df2.duplicated()#检查重复值 以Boolean形式进行输出展示
df2.duplicated().sum()#打印有多少重复值
df2[df2.duplicated()]#打印重复值
df2[df2.duplicated()==False]#打印非重复值
df2.drop_duplicates()#删除重复值(此操作并不是在数据源本身进行删除操作)
df2.drop_duplicates(inplace=True)#删除重复值(此操作是在数据源本身进行删除操作)
第二节 过滤空数据
df2.isnull()#检查是否存在空值(可以查到NAN值和None值)
df2.dropna(how = 'any') # 删除空数据(此操作并不是在数据源本身进行删除操作)
df2.dropna(how = 'any',inplace=True)# 删除空数据(此操作是在数据源本身进行删除操作)
df2.fillna(value='小A')#填充空数据(此操作并不是在数据源本身进行删除操作)
df2.fillna(value='小A',inplace=True)#填充空数据(此操作是在数据源本身进行删除操作)
第三节 过滤指定行或列
del df2['Sex'] # 直接删除某列
df2.drop(labels = ['price'],axis = 1)# 删除指定列
df2.drop(labels = [0,1,5],axis = 0) # 删除指定⾏
filter函数:选取保留的数据过滤其他数据
df2.filter(items=['Name', 'Score'])#保留‘Name’,‘Score’两列
df2.filter(like='S',axis = 1)# 保留列标签包含‘S’的列(axis=1表示列,axis=0表示行)
df.filter(regex='S$', axis=1)#正则方式进行筛选
第八部分 数据转换
第一节 rename和replace的转换标签个元素
#改变行列索引
df2.rename(index = {0:10,1:11},columns={'Name':'StName'})#将行索引0换为10,1换为11;列索引Name换为StName
#替换元素值
df2.replace(100,102)#将所有的100替换为102
df2.replace([89,67],78)#将所有的89和67替换为78
df2.replace({'九州':'JZ',None:'九州'})#根据字典的键值对进行替换
df2.replace({'Sex':1},1024)#将Sex列的1全部替换为1024
第二节 apply和Transform
相同点:都能针对Dataframe的特征的计算,常与groupby()分组聚合方式下节更新方法连用
不同点:aplly参数可以是自定义函数,包括简单的求和函数以及复制的特征间的差值函数等。apply不能直接使用python的内置函数,比如sum、max、min。
Transform参数不能是自定义的特征交互函数,因为transform是针对每一元素(即每一列特征操作)进行计算。
#先建立数组
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),index = list('ABCDEFGHIJ'),columns=['Python','En','Math'])
df['Python'].apply(lambda x:True if x >50 else False)#选取python学科中的大于50的数据
df.apply(lambda x : x.median(),axis = 0) # 列的中位数
#自定义函数算法
def avg(x):
return (x.mean(),x.max(),x.min(),x.var().round(1))
df.apply(avg,axis=0)#输出列的平均值,最大值,最小值,方差保留一位小数
# ⼀列执⾏多项计算
df['Python'].transform([np.sqrt,np.log10]) # 对单列数据处理做开平方和对数运算
#自定义函数算法
def convert(x):
if x > 140:
x -= 12
else:
x += 12
return x
df.transform({'Python':np.sqrt,'En':np.log10,'Math':convert}).round(1)# 对多列数据处理做开不同运算
---------------------------------------------!!!!!!!!!第三次更新!!!!!!!!!!!----------------------------------------------------------
第九部分 数据重塑
df = pd.DataFrame(data = np.random.randint(0,150,size = [20,3]),
index = pd.MultiIndex.from_product([list('ABCDEFHIJK'),['一期','二期']]),# 多层索引
columns=['Python','En','Math'])
df.unstack(level=1)#行作列
df.stack()#列作行
df.mean(level=1)#各学科每期平均分
df.mean(level=0)#各学员平均分
df.mean()#各科平均分
第十部分 统计方法函数
#创建数据
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),
index = list('ABCDEFGHIJ'),
columns=['Python','En','Math'])
df.count() # ⾮NA值的数量
df.max(axis = 0) #轴0最⼤值,即每⼀列最⼤值
df.min() #默认计算轴0最⼩值
df.median() # 中位数
df.sum() # 求和
df.mean(axis = 1) #计算每⼀⾏的平均值
df.quantile(q = [0.2,0.5,0.9]) # 分位数
df.describe() # 查看数值型列的汇总统计,计数、平均值、标准差、最⼩值、四分位数、最⼤值
df['Python'].value_counts() # 统计元素出现次数
df['Math'].unique() # 去重
df.cumsum() # 累加
df.cumprod() # 累乘
df.std() # 标准差
df.var() # ⽅差
df.cummin() # 累计最⼩值
df.cummax() # 累计最⼤值
df.diff() # 计算差分
df.pct_change() # 计算百分⽐变化
df.cov() # 属性的协⽅差
df['Python'].cov(df['Math']) # Python和Math的协⽅差
df.corr() # 所有属性相关性系数
df.corrwith(df['En']) # 单⼀属性相关性系数
#标签索引计算方式
df['Python'].argmin() # 计算Python列的最⼩值位置
df['Math'].argmax() # 计算Math列的最⼤值位置
df.idxmax() # 最⼤值索引标签
df.idxmin() # 最⼩值索引标签
第十一部分 排序
#创建数据
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),
index = list('ABCDEFGHIJ'),
columns=['Python','En','Math'])
ran = np.random.permutation(10)
df = df.take(ran)#随机排列行索引
df.sort_index(axis=0,ascending=True)#按照行索引降序排序
df.sort_index(axis=1,ascending=True)#按照列索引降序排序
df.sort_values(by='Python')#根据Python列的值降序排序
df.sort_values(by=['Python','Math'])#先按找Python排序在按照Math排序
lage = df.nlargest(3,columns='Math') # 根据属性Math排序,返回最⼤3个数据
samll = df.nsmallest(3,columns='Python') # 根据属性Python排序,返回最⼩3个数据
display(lage,samll)
第十二部分 cut与qcut的分箱处理
cut函数对数据进行分箱处理的操作, 也就是 把一段连续的值切分成若干段,每一段的值看成一个分类。这个把连续值转换成离散值的过程,我们叫做分箱处理cut会按照数据值由大到小的顺序将数据分割为若干分,并且使每组范围大致相等
qcut是按变量的数量来对变量进行分割,并且尽量保证每个分组里变量的个数相同。
df['py_cut'] = pd.cut(df.Python,bins=4)#按照数据范围分箱
df['en_cut'] = pd.cut(df.En,bins=4)#按照数据个数分箱
df['q_评级'] = pd.qcut(df.Python,q = 4,# 4等分
labels=['差','中','良','优']) # 分箱后分类
df['c_评级'] = pd.cut(df.En,#分箱数据
bins = [0,60,90,120,150],#分箱断点
right = False,# 左闭右开原则
labels=['差','中','良','优'])# 分箱后分类
---------------------------------------------!!!!!!!!!第四次更新!!!!!!!!!!!----------------------------------------------------------
第十三部分 分组聚合
分组Group()函数,分组过程与sql的group by 函数的方式大致相同,主要处理多种类别的数据,例如一个的企业的员工数据可以按照性别,年龄,薪水,部门等纬度进行分组。
实在是找不到好的数据来进行演示索性使用之前爬取的*车之*的一段数据进行演示吧
df= pd.read_excel('C:/Users/admin/Desktop/home_car_allclean.xlsx')#导入数据
第一节 分组
# 1、分组->可迭代对象
# 1.1 先分组再获取数据
g = df.groupby(by='汽车等级')[['汽车类型','汽车排量']]#单分组
for name,data in g:
print(name)
print(data)
g = df.groupby(by = ['汽车类型','汽车等级'])[['汽车排量']] # 多分组
for name,data in g:
print(name)
print(data)
#1.2 对⼀列值进⾏分组
df['汽车等级'].groupby(df['汽车类型']) # 单分组df['汽车名称'].groupby([df['汽车类型'],df['汽车排量']]) # 多分组
#键值对分组
m ={'汽车名称':'Name','汽车平均价格':'attribute','汽车类型':'attribute','汽车排量':'attribute','汽车等级':'attribute'}
for name,data in df.groupby(m,axis = 1):
print('组名',name)
print('数据',data)
第二节 分组聚合
此句代码足以慰人心,不得不感叹Pandas的人性化
df.groupby(by='汽车类型').mean().round(1)#按照汽车类型分组再计算其余列的平均值
df.groupby(by=['汽车类型','汽车等级'])['汽车平均价格'].max()#按照汽车类型和汽车等级分组再计算汽车平均价格的最大值
# 3、分组后调⽤apply,transform封装单⼀函数计算
# 返回分组结果
df.groupby(by = ['汽车类型','汽车等级'])[['汽车平均价格','汽车排量']].apply(np.mean).round(1)
def normalization(x):
return (x - x.min())/(x.max() - x.min()) # 最⼤值最⼩值归⼀化
# 返回全数据,返回DataFrame.shape和原DataFrame.shape⼀样。
df.groupby(by = ['汽车等级','汽车等级'])[['汽车平均价格','汽车排量']].transform(normalization).round(1)
# 4、agg 多中统计汇总操作
# 分组后调⽤agg应⽤多种统计汇总
df.groupby(by=['汽车类型','汽车等级'])[['汽车平均价格','汽车排量']].agg([np.mean,np.max]).round(1)
# 分组后不同属性应⽤多种不同统计汇总
df.groupby(by=['汽车类型','汽车等级'])[['汽车平均价格','汽车排量']].agg({'汽车平均价格':[('最高价',np.max),('最低价',np.min)],
'汽车排量':[('最高排量',np.max),('最低排量',np.min)]})