当前位置 博文首页 > 轻窕:??数据分析总结《pands数据处理》,建议收藏??

    轻窕:??数据分析总结《pands数据处理》,建议收藏??

    作者:[db:作者] 时间:2021-09-12 12:03

    目录

    前言

    导库

    导入数据

    导出数据

    数据合并

    查看数据

    数据选取

    数据处理

    数据分组、排序、透视

    有什么不全的,可以在评论区补充。具体参数可以自己查询一下这里就一一例举了


    前言

    不管是业务数据分析 ,还是数据建模。数据处理都是及其重要的一个步骤,它对于最终的结果来说,至关重要。

    今天,就为大家总结一下 “Pandas数据处理” 几个方面重要的知识,拿来即用。

    导库

    # 在使用之前,需要导入pandas库
    import pandas as pd
    

    导入数据

    pd.DataFrame() # 自己创建数据框,用于练习
    
    # 从CSV?件导?数据
    pd.read_csv("./path/filename.csv")
    #参数
    #encoding='ANSI', # 读文件的编码方法;常用编码'utf-8'、“ANSI”,"GBK"
    #sep=',',  # 默认分隔符是逗号
    #delimiter=',',  # 分隔符,同sep,使用任意一个即可
    #header="infer",  # 选择第几行作为列索引;infer表示自动寻找
    #index_col=None,  # 选择 第几列 作为行索引
    #usecols=None,  # 使用哪些列
    #names=None,  # 对使用的列重命名
    
    
    # 从限定分隔符的?本?件导?数据
    pd.read_table("./path/filename.csv")
    # 参数
    #encoding='ANSI',
    #sep=',', #默认的分隔符是\t
    #delimiter=','
    
    
    # 从Excel?件导?数据
    pd.read_excel("./path/filename.csv")
    # 参数
    # sheet_name=0,  # 默认是0,读第0个工作表
    # sheet_name=1,  # 读第1个工作表
    # sheet_name="meal_order_detail2", # 读meal_order_detail2工作表
    # sheet_name=-2,  # 倒数第二个工作表
    # sheet_name=None,  # 读取所有的工作表 # 从Excel?件导?数据
    # header=1,  # 第1行索引作为列索引
    # index_col=0,  # 第0列作为行索引
    # usecols=[0, 2],  # 读取时选择 使用哪些列
    # names=["序号", "订单信息"],  # 读取时选择 对 选择列 重命名,
    # nrows=10,  # 读前10行数据
    # skiprows=[0, 3, 5],  # 先执行跳过行操作,后确定列索引和数据部分
    
    
    # 从SQL表/库导?数据
    pd.read_sql(query,connection_object)
    # 参数
    # sql:SQL命令字符串
    # con:连接sql数据库的engine,一般可以用SQLalchemy或者pymysql之类的包建立
    # index_col: 选择某一列作为index
    # coerce_float:非常有用,将数字形式的字符串直接以float型读入
    # parse_dates:将某一列日期型字符串转换为datetime型数据,与pd.to_datetime函数功能类似。可以直接提供需要转换的列名以默认的日期形式转换,也可以用字典的格式提供列名和转换的日期格式,比如{column_name: format string}(format string:"%Y:%m:%H:%M:%S")。
    # columns:要选取的列。一般没啥用,因为在sql命令里面一般就指定要选择的列了
    # chunksize:如果提供了一个整数值,那么就会返回一个generator,每次输出的行数就是提供的值的大小。
    
    
    pd.read_json(json_string) # 从JSON格式的字符串导?数据
    
    
    pd.read_html(url) # 解析URL、字符串或者HTML?件,抽取其中的tables表格
    

    导出数据

    ?具体参数可以查一下这里就不一一例举了

    df.to_csv(filename) #导出数据到CSV?件
    
    df.to_excel(filename) #导出数据到Excel?件
    # 参数
    # header=True,  # 是否保存列索引
    # index=True,  # 是否保存行索引
    # sheet_name="sheet1"
    
    df.to_sql(table_name,connection_object) #导出数据到SQL表
    
    df.to_json(filename) #以Json格式导出数据到?本?件
    
    writer=pd.ExcelWriter('test.xlsx',index=False) 
    df1.to_excel(writer,sheet_name='单位')和writer.save(),将多个数据帧写?同?个?作簿的多个sheet(?作表)
    

    数据合并

    df.concat([df1,df2],axis=1,join='inner') # 将df2中的列添加到df1的尾部,值为空的对应?与对应列都不要
    
    df1.append(df2) # 将df2中的?添加到df1的尾部
    
    df1.join(df2.set_index(col1),on=col1,how='inner') # 对df1的列和df2的列执?SQL形式的join,默认按照索引来进?合并,如果df1和df2有共同字段时,会报错,可通过设置lsuffix,rsuffix来进?解决,如果需要按照共同列进?合并,就要?到set_index(col1)
    
    pd.merge(df1,df2,on='col1',how='outer') # 对df1和df2合并,按照col1,?式为outer
    
    pd.merge(df1,df2,left_index=True,right_index=True,how='outer') #与 df1.join(df2, how='outer')效果相同
    

    查看数据

    df.head(n) # 查看DataFrame对象的前n?
    
    df.tail(n) # 查看DataFrame对象的最后n?
    
    df.shape() # 查看?数和列数
    
    df.info() # 查看索引、数据类型和内存信息
    
    df.columns() # 查看字段(??)名称
    
    df.describe() # 查看数值型列的汇总统计
    
    s.value_counts(dropna=False) # 查看Series对象的唯?值和计数
    
    df.apply(pd.Series.value_counts) # 查看DataFrame对象中每?列的唯?值和计数
    
    df.isnull().any() # 查看是否有缺失值
    
    df[df[column_name].duplicated()] # 查看column_name字段数据重复的数据信息
    
    df[df[column_name].duplicated()].count() # 查看column_name字段数据重复的个数
    

    数据选取

    df[col] # 根据列名,并以Series的形式返回列
    
    df[[col1,col2]] # 以DataFrame形式返回多列
    
    s.iloc[0] # 按位置选取数据
    
    s.loc['index_one'] # 按索引选取数据
    
    df.iloc[0,:] # 返回第??
    
    df.iloc[0,0] # 返回第?列的第?个元素
    
    df.loc[0,:] # 返回第??(索引为默认的数字时,?法同df.iloc),但需要注意的是loc是按索引,iloc参数只接受数字参数
    
    df.ix[[:5],["col1","col2"]] # 返回字段为col1和col2的前5条数据,可以理解为loc和
    iloc的结合体。
    
    df.at[5,"col1"] # 选择索引名称为5,字段名称为col1的数据
    
    df.iat[5,0] # 选择索引排序为5,字段排序为0的数据
    

    数据处理

    df.columns= ['a','b','c'] # 重命名列名(需要将所有列名列出,否则会报错)
    
    pd.isnull() # 检查DataFrame对象中的空值,并返回?个Boolean数组
    
    pd.notnull() # 检查DataFrame对象中的?空值,并返回?个Boolean数组
    
    df.dropna() # 删除所有包含空值的?
    
    df.dropna(axis=1) # 删除所有包含空值的列
    
    df.dropna(axis=1,thresh=n) # 删除所有?于n个?空值的?
    
    df.fillna(value=x) # ?x替换DataFrame对象中所有的空值,?持
    
    df[column_name].fillna(x)
    
    s.astype(float) # 将Series中的数据类型更改为float类型
    
    s.replace(1,'one') # ?‘one’代替所有等于1的值
    
    s.replace([1,3],['one','three']) # ?'one'代替1,?'three'代替3
    
    df.rename(columns=lambdax:x+1) # 批量更改列名
    
    df.rename(columns={'old_name':'new_ name'}) # 选择性更改列名
    
    df.set_index('column_one') # 将某个字段设为索引,可接受列表参数,即设置多个索引
    
    df.reset_index("col1") # 将索引设置为col1字段,并将索引新设置为0,1,2...
    
    df.rename(index=lambdax:x+1) # 批量重命名索引
    

    数据分组、排序、透视

    df.sort_index().loc[:5] # 对前5条数据进?索引排序
    
    df.sort_values(col1) # 按照列col1排序数据,默认升序排列
    
    df.sort_values(col2,ascending=False) # 按照列col1降序排列数据
    
    df.sort_values([col1,col2],ascending=[True,False]) # 先按列col1升序排列,后按col2降序排列数据
    
    df.groupby(col) # 返回?个按列col进?分组的Groupby对象
    
    df.groupby([col1,col2]) # 返回?个按多列进?分组的Groupby对象
    
    df.groupby(col1)[col2].agg(mean) # 返回按列col1进?分组后,列col2的均值,agg可以接受列表参数,agg([len,np.mean])
    
    df.pivot_table(index=col1,values=[col2,col3],aggfunc={col2:max,col3:[ma,min]}) # 创建?个按列col1进?分组,计算col2的最?值和col3的最?值、最?值的数据透视表
    
    df.groupby(col1).agg(np.mean) # 返回按列col1分组的所有列的均值,?持
    
    df.groupby(col1).col2.agg(['min','max'])
    
    data.apply(np.mean) # 对DataFrame中的每?列应?函数np.mean
    
    data.apply(np.max,axis=1) # 对DataFrame中的每??应?函数np.max
    
    df.groupby(col1).col2.transform("sum") # 通常与groupby连?,避免索引更改
    

    有什么不全的,可以在评论区补充。具体参数可以自己查询一下这里就一一例举了

    cs