Python库-pandas详解

  • 1. pandas介绍
  • 2. Series
  • 3. DataFrame
  • 3.1 DataFrame结构
  • 3.2 DataFrame属性与方法
  • 3.2 DataFrame索引的设置
  • 4. 基本数据操作
  • 4.1 索引重命名
  • 4.2 通过索引操作数据
  • 4.3 排序
  • 5. DataFrame运算
  • 5.1 算术运算
  • 5.2 逻辑运算
  • 5.3 统计运算
  • 5.4 自定义运算
  • 6. pandas画图
  • 7. 文件的读取和存储
  • 8. 数据的高级处理
  • 8.1 缺失值处理
  • 8.2 数据离散化处理
  • 8.3 数据合并
  • 8.4 交叉表与透视表
  • 8.5 分组与聚合
  • 1. pandas介绍

    pandas 是用于数据挖掘的Python库

  • 便捷的数据处理能力
  • 独特的数据结构
  • 读取文件方便
  • 封装了matplotlib的画图和numpy的计算
  • pandas的数据结构

  • Series
  • Series 类似表格中的一个列(column),类似于一维数组,可以保存任何数据类型。由索引(index)和列组成。
  • DataFrame
  • DataFrame 是一个表格型的数据结构,每列可以是不同的值类型(数值、字符串、布尔型值)。DataFrame 既有行索引也有列索引,它可以被看做由 Series 组成的字典。
  • 案例应用

    创建一个符合正态分布的10个股票5天的涨跌幅数据,使用pandas中的数据结构 DataFrame() 处理数据

    # 导入库
    import numpy as np
    import pandas as pd
    
    # 创建一个符合正态分布的10个股票5天的涨跌幅数据
    stocks = np.random.normal(0, 1, [10, 5])
    # 使用pandas中的数据结构 DataFrame() 处理数据
    stocks_rise = pd.DataFrame(stocks)
    # 设置行索引,获取行数 stocks_rise.shape[0] 进行遍历 列表生成式
    index_row = ['股票{}'.format(i+1) for i in range(stocks_rise.shape[0])]
    # 设置列索引,日期是一个时间序列,为了简便,使用pd.date_range()生成一组连续的时间序列
    # pd.date_range(start,end,periods,freq) start:开始时间, end:结束时间
    # periods:时间天数, freq:递进单位,默认1天,'B'默认略过周末
    index_col = pd.date_range(start='20220201',periods=stocks_rise.shape[1],freq='B')
    # 添加索引,注意数据是ndarray数据 index表示行索引,columns表示列索引
    data = pd.DataFrame(stocks, index=index_row, columns=index_col)
    print(data)
    
          2022-02-01  2022-02-02  2022-02-03  2022-02-04  2022-02-07
    股票1    -2.054041   -1.170757    0.162393    0.253333   -1.638837
    股票2    -1.463734    0.408459    0.530070   -0.925281    1.454630
    股票3    -0.511517   -0.827591   -2.076265    0.139486    0.658707
    股票4    -1.698789    0.250902   -0.624713    1.378845   -1.672292
    股票5     0.683233   -1.083694    0.810567    0.421215    1.375385
    股票6    -0.296111   -0.946959    0.836536   -1.179879   -0.397406
    股票7     0.017772    0.180210    2.022776    0.436337   -1.555866
    股票8     0.638262   -0.790932    1.077822   -1.746631   -0.591360
    股票9    -0.681391   -0.613255   -1.849094    0.438304   -0.503742
    股票10   -0.243500   -1.733623   -1.137840    0.124976   -0.415727
    

    2. Series

    pd.Series( data, index, dtype, name, copy)

    参数说明:
    
    data:一组数据(ndarray 类型)。
    index:数据索引标签,如果不指定,默认从 0 开始。
    dtype:数据类型,默认会自己判断。
    name:设置名称。
    copy:拷贝数据,默认为 False。
    

    Series实例

    # 通过数组创建Series
    s = pd.Series([6, 5, 2], index=['x', 'y', 'z'])
    print(s)
    x    6
    y    5
    z    2
    # 通过字典创建Series
    s = pd.Series({
        'day': 2,
        'month': 2,
        'year': 2022
    })
    print(s)
    day         2
    month       2
    year     2022
    dtype: int64
    # 通过索引操作数据
    print(s['year'])
    2022
    

    3. DataFrame

    3.1 DataFrame结构

    DataFrame对象既有行索引,又有列索引

  • 行索引:表明不同行,横向索引,叫index,axis=0
  • 列索引:表明不同列,纵向索引,叫columns,axis=1
  • 3.2 DataFrame属性与方法

  • shape DataFrame的形状
  • index DataFrame行索引
  • columns DataFrame列索引
  • values DataFrame的值
  • T DataFrame转置
  • head(n) DataFrame的前n行,默认为前5行
  • tail(n) DataFrame的后n行,默认为后5行
  • print(data.shape)  # (10, 5)
    print(data.index)
    # Index(['股票1', '股票2', '股票3', '股票4', '股票5', '股票6', '股票7', '股票8', '股票9', '股票10'], dtype='object')
    print(data.columns)
    # DatetimeIndex(['2022-02-01', '2022-02-02', '2022-02-03', '2022-02-04',
    #                '2022-02-07'],
    #               dtype='datetime64[ns]', freq='B')
    print(data.values)
    print(data.T)
    

    3.2 DataFrame索引的设置

    1 修改行列索引值

  • 必须整体全部修改,不能单独修改某个索引
  • index_row2 = ['股票_{}'.format(i + 1) for i in range(stocks_rise.shape[0])]
    data.index = index_row2
    print(data)
    

    2 重设索引

  • reset_index(drop=False)
  • 设置新的下标索引
  • drop:默认为False,不删除原来索引
  • # 重设索引
    print(data.reset_index(drop=False))
    

    3 以某列值设为新的索引

  • set_index(keys,drop=True)
  • keys:列索引名称或者列索引名称的列表
  • drop:默认为True,当作新的索引,删除原来索引
  • # 创建
    df = pd.DataFrame({
        'month': [1, 4, 7, 10],
        'year': [2018, 2019, 2020, 2021],
        'sale': [55, 40, 84, 33]
    })
    print(df)
       month  year  sale
    0      1  2018    55
    1      4  2019    40
    2      7  2020    84
    3     10  2021    33
    # 以月份设置新的索引
    print(df.set_index('month'))
           year  sale
    month            
    1      2018    55
    4      2019    40
    7      2020    84
    10     2021    33
    # 设置多个索引,以年和月份
    # 如果设置索引是两个的时候,就是multiIndex
    print(df.set_index(['year', 'month']))
                sale
    year month      
    2018 1        55
    2019 4        40
    2020 7        84
    2021 10       33
    

    4. 基本数据操作

    4.1 索引重命名

  • rename(mapper=None,inplace=False)
  • mapper:映射结构,修改columns或index要传入一个映射体,可以是字典、函数
  • inplace:默认为False,不改变数据,返回一个新的DataFrame
  • 4.2 通过索引操作数据

    1. 直接使用行列索引(先列后行)

  • 先行后列会报错
  • 不支持切片,会报错
  • stocks = np.random.normal(0, 1, [10, 5])
    stocks_rise = pd.DataFrame(stocks)
    index_row = ['股票{}'.format(i + 1) for i in range(stocks_rise.shape[0])]
    index_col = pd.date_range(start='20220201', periods=stocks_rise.shape[1], freq='B')
    data = pd.DataFrame(stocks, index=index_row, columns=index_col)
    print(data.head())
         2022-02-01  2022-02-02  2022-02-03  2022-02-04  2022-02-07
    股票1    0.663384    1.936687    1.992576    2.009280   -0.723381
    股票2   -2.441452    0.081647   -0.738524   -0.620358   -1.930378
    股票3    2.026646   -0.324842   -0.478456   -0.840363    1.492842
    股票4   -0.188968   -1.180816    0.733197   -0.078608   -1.056264
    股票5    1.219254   -1.738242    0.473682    0.288252    3.513113
    # 索引先列后行获取数据
    print(data['2022-02-03']['股票3'])
    -0.47845617563179627
    
    # print(data['股票3']['2022-02-03']) # 先行后列会报错
    # print(data[:1, :2]) # 不支持切片,会报错
    

    2. 结合loc或iloc使用索引(先行后列)

  • loc 通过索引名称访问
  • iloc 通过索引下标访问,支持切片
  • print(data.loc['股票3']['2022-02-03']) 
    print(data.iloc[1, 1])
    print(data.iloc[:3, :4])
    
  • loc或iloc还可以进行组合索引访问
  • # 获取前5行,两列的值
    print(data.loc[data.index[:5], ['2022-02-01', '2022-02-02']])
    print(data.iloc[0:5, data.columns.get_indexer(['2022-02-01', '2022-02-02'])])
    

    4.3 排序

    1. sort_values(by=,ascending=) 对内容进行排序

  • by:根据单个键或者多个键(优先级从前到后)进行排序,默认升序 ascending=True
  • ascending=False,降序
  • print(data.sort_values(by='2022-02-01', ascending=False))
    print(data.sort_values(by=['2022-02-01', '2022-02-02'], ascending=False))
    

    2. sort_index(ascending=) 对索引进行排序

  • 默认升序 ascending=True, 降序为False
  • print(data.sort_index(ascending=False))
    
    说明:Series的排序方法与DataFrame方法一致,因为只有一列,也不用指定键,只需要指定是升序或降序
    

    5. DataFrame运算

    5.1 算术运算

    和一般算数运算方法类似,举几个例子

    import pandas as pd
    df = pd.DataFrame({
        'month': [1, 4, 7, 10],
        'year': [2018, 2019, 2020, 2021],
        'sale': [55, 40, 84, 33]
    })
    n = df['sale'][0]   # 55
    print(n.__add__(2))    # 加法运算 <=> +
    print(n.__sub__(2))    # 减法运算 <=> -
    print(n.__mul__(2))    # 乘法运算 <=> *
    print(n.__divmod__(2)) # 除余,得到商和余数 (商, 余数)
    print(n.__mod__(2))    # 模运算(余数)<=> %
    print(n.__abs__())    # 绝对值运算
    

    5.2 逻辑运算

  • 逻辑运算符号 < > | &
  • 获取逻辑运算结果
  • 将逻辑运算结果作为筛选条件进行数据筛选
  • print(df)
       month  year  sale
    0      1  2018    55
    1      4  2019    40
    2      7  2020    84
    3     10  2021    33
    # 获取逻辑运算结果
    print(df['sale'] > 50)
    0     True
    1    False
    2     True
    3    False
    # 逻辑运算结果可以作为筛选的条件
    print(df[df['sale'] > 50])  
    Name: sale, dtype: bool
       month  year  sale
    0      1  2018    55
    2      7  2020    84
    
  • 逻辑运算函数
  • query(expr) 通过条件字符串进行查询符合条件的数据
  • isin(values) 对数据进行逻辑判断,判断数据是否在指定的values中
  • print(df.query('sale > 35 & sale < 80'))
       month  year  sale
    0      1  2018    55
    1      4  2019    40
    
    print(df['sale'].isin([30, 40]))
    0    False
    1     True
    2    False
    3    False
    Name: sale, dtype: bool
    

    5.3 统计运算

  • describe() 综合分析,统计数量count,平均值mean,标准差std,最大值,最小值等
  • print(data.head().describe())
           2022-02-01  2022-02-02  2022-02-03  2022-02-04  2022-02-07
    count    5.000000    5.000000    5.000000    5.000000    5.000000
    mean     0.731207    0.016387   -0.292730   -0.050105    0.491857
    std      0.692347    1.184870    1.038632    0.897436    0.808612
    min     -0.019900   -1.273726   -1.526506   -0.766793   -0.416006
    25%      0.558542   -0.963643   -1.228403   -0.563485    0.043999
    50%      0.581686   -0.036380   -0.031193   -0.553368    0.136538
    75%      0.665749    0.797005    0.541065    0.229670    1.331016
    max      1.869961    1.558681    0.781386    1.403449    1.363740
    
  • 描述性统计函数
  • 对于单个函数去统计的时候,坐标轴还是按照默认columns(axis=0),如需要对行统计,指定axis=1

    函数名称 描述说明
    count() 统计某个非空值的数量
    sum() 求和
    mean() 求均值
    median() 求中位数
    mode() 求众数
    std() 求标准差
    min() 求最小值
    max() 求最大值
    idxmax 最大值的索引
    idxmin 最小值的索引
    abs() 求绝对值
    prod() 求所有数值的乘积
    cumsum() 计算累计和
    cumprod() 计算累计积
  • 其他统计函数
  • 函数名称 描述说明
    pct_change() 百分比函数:将每个元素与其前一个元素进行比较,并计算前后数值的百分比变化
    cov() 协方差函数:用来计算 Series 对象之间的协方差。该方法会将缺失值(NAN )自动排除
    corr() 相关系数:计算数列或变量之间的相关系数,取值-1到1,值越大表示关联性越强,会排除NAN 值

    5.4 自定义运算

    apply(func,axis)

  • func:自定义运算函数
  • axis:默认为0,对列运算
  • 6. pandas画图

    对象.plot(x=None,y=None,kind=‘line’)

  • x和y表示标签或者位置,默认为None
  • kind:表示绘图的类型,默认为line,折线图
  • line:折线图
  • bar/barh:柱状图
  • hist:直方图
  • pie:饼状图
  • area:区域图
  • scatter:散点图
  • import matplotlib.pyplot as plt
    
    rise = data.loc['股票1'].cumsum()
    print(rise)
    rise.plot()	# 画图
    plt.show()	# 显示
    

    7. 文件的读取和存储

    pandas支持的常用文件类型包括:HDF5、CSV、SQL、XLS、JSON等

    1.CSV

  • pd.read_csv(‘filepath_or_buffer’, usecols=[]) 读取csv文件数据
  • filepath_or_buffer:文件路径
  • sep:分隔符,默认为’,’
  • usecols:指定读取的列名,列表形式
  • import pandas as pd
    
    data = pd.read_csv(r'../../fodder/stocks.csv', usecols=['open', 'high', 'low', 'close'])
    print(data.head())
        open   high    low  close
    0  29.76  29.97  29.52  29.96
    1  28.49  29.51  28.42  29.50
    2  28.76  28.95  28.47  28.50
    3  28.41  28.95  28.32  28.90
    4  28.37  28.61  28.33  28.36
    
  • df.to_csv(path_or_buf,columns=[],index=True,mode=‘w’) 将数据存储到csv文件中
  • path_or_buf:文件存放的路径
  • sep:分隔符,默认为’,’
  • columns:列,列表形式
  • mode:‘w’:重写,‘a’:追加
  • header:是否写进列索引值
  • index:是否写进行索引,默认True写进行索引,会将行索引变成一列数据
  • encoding:编码格式,默认为None
  • # 将前十行数据写进新的文件中 index设置False,不写行索引
    data[:10].to_csv(r'../../fodder/test.csv', columns=['open', 'close'], index=False)
    # 查看写进文件的数据
    data2 = pd.read_csv(r'../../fodder/test.csv')
    print(data2)
        open  close
    0  29.76  29.96
    1  28.49  29.50
    2  28.76  28.50
    3  28.41  28.90
    4  28.37  28.36
    5  27.48  28.34
    6  27.66  27.84
    7  28.03  27.55
    8  28.65  28.37
    9  28.39  28.84
    

    2.HDF5

    读取HDF5文件(.h5)需要安装tables模块

  • pd.read_hdf(path_or_buf, key=None) 读取HDF5文件
  • path_or_buf:文件路径
  • key:读取的键
  • df.to_hdf(path_or_buf, key) 写入HDF5文件
  • path_or_buf:文件路径
  • key:写入文件时,必须指定一个键
  • # 读取.h5文件数据
    data = pd.read_hdf(r'../../fodder/stocks.h5')
    print(data.head())
    # 将数据写入.h5文件
    data.to_hdf(r'../../fodder/test.h5', key='a')
    data2 = pd.read_hdf(r'../../fodder/test.h5', key='a')
    print(data2.head())
    

    3.JSON

  • pd.read_jsonf(path_or_buf, orient=None,typ=‘frame’,lines=False) 读取json文件
  • path_or_buf:文件路径
  • orient:指定数据存储的json形式 ,{‘split’,‘records’,‘index’,‘columns’,‘valuse’}
  • typ:默认frame,指定转换成的对象类型Series或者DataFrame
  • lines:默认False,按照每行读取json
  • pd.to_jsonf(path_or_buf, orient=None,lines=False) 存储json文件
  • path_or_buf:文件路径
  • orient:指定数据存储的json形式
  • lines:默认False,一个对象存储为一行。一般设置为Ture
  • # 读取json文件
    data = pd.read_json(r'../../fodder/33510.json', orient='records', lines=True)
    print(data.head())
    # 写入json文件
    data.to_json(r'../../fodder/test.json', orient='records', lines=True)
    data2 = pd.read_json(r'../../fodder/test.json')
    print(data2.head())
    

    8. 数据的高级处理

    8.1 缺失值处理

    缺失值NaN的类型是float

    print(type(np.NAN))
    <class 'float'>
    

    1. 判断数据是否有缺失值

  • pd.isnull(df)
  • pd.notnull(df)
  • # 读取xls数据
    data = pd.read_excel(r'../Python/demo/reptile/豆瓣电影TOP250/豆瓣电影TOP250.xls')
    # 只要包含缺失值,就为True
    np.any(pd.isnull(data)) 	# True
    

    2. 处理NaN

  • 删除缺失值 dropna(inplace=False),前提是缺失值的类型必须是np.NaN
  • # dropna()方法可以指定是否在原数据上进行删除 默认inplace=False 不修改原数据
    newdata = data.dropna()  
    np.any(pd.isnull(newdata)) 	# False
    
  • 替换缺失值 fillna(value,inplace=False)
  • value:替换后的值
  • inplace:默认False,表示不改变原数据,True表示在原数据上直接替换
  • for item in data.columns:
    #     print(item) # 遍历所有列索引
        # 判断该列中是否含有缺失值
        if np.any(pd.isnull(data[item])): 
    #         print(item)
            # 对该列中的缺失值进行替换
            data[item].fillna(value="this is queshizhi", inplace=True)
    

    3. 缺失值不是NaN的情况,如默认标记符号

    比如数据中存在"?"符号,则可以先将符号替换为NaN,再进行处理。

  • 替换 replace(to_replace,value) ,在原数据上直接替换
  • to_replace:替换前的值
  • value:替换后的值
  • # 替换为np.NaN
    data.replace(to_replace="?", value=np.NaN)
    # 删除缺失值 在原数据上直接删除
    data.dropna(inplace=True)
    

    8.2 数据离散化处理

    1. 为什么要离散化

    连续属性离散化的目的是为了简化数据结构数据离散化技术可以用来减少给定连续属性值的个数,离散化方法经常作为数据挖掘的工具。

    2. 什么是数据的离散化

    连续属性的离散化就是在连续属性的值域上,将值域划分为着干个离散的区间,最后用不同的符号或整数值代表落在每个子区间中的属性值。

    假设按照身高分几个区间段:150—165,165~180.180—195

    这样我们将数据分到了三个区间段,我可以对应的标记为矮、中、高三个类别,最终要处理成一个“哑变量“矩阵

    3. 数据离散化处理

    one-hot编码介绍

    One-Hot编码,又称为一位有效编码,是分类变量作为二进制向量的表示。one-hot 编码就是保证每个样本中的单个特征只有1位处于状态1,其他的都是0。别名:哑变量,热独编码

    (1) 将分类值映射到整数值。
    (2) 然后,每个整数值被表示为二进制向量,除了整数的索引之外,其他都是零值,它被标记为1。

    例子:把下图中左边的表格转化为使用右边形式进行表示:

    方法

  • pd.qcut(data,q):对数据进行分组,一般与value_counts搭配使用
  • data:需要分组的数据
  • q:分组数量,表示自行将数据分成数量相近的q组
  • pd.cut(data,bins):自定义分组
  • bins:自定义分组区间
  • series.value_counts():统计个数
  • pd.get_dummies(data, prefix=None):获取数据的one-hot编码矩阵
  • prefix:分组名字
  • 案例:对股票每日的涨跌幅(“p_change”)数据进行离散化

    # 1. 先读取股票的数据,筛选出p_change数据
    data = pd.read_csv('../Python/fodder/stock_day.csv')
    data_p = data['p_change']
    # 2. 将股票涨跌幅数据进行分组并统计
    qcut = pd.qcut(data_p, 10)	# 分组 自行分成10组
    2018-02-27    (1.738, 2.938]
    2018-02-26     (2.938, 5.27]
    2018-02-23    (1.738, 2.938]
    2018-02-22     (0.94, 1.738]
    2018-02-14    (1.738, 2.938]
                       ...      
    qcut.value_counts()	# 统计
    (-10.030999999999999, -4.836]    65
    (-0.462, 0.26]                   65
    (0.26, 0.94]                     65
    (5.27, 10.03]                    65
    (-4.836, -2.444]                 64
    (-2.444, -1.352]                 64
    (-1.352, -0.462]                 64
    (1.738, 2.938]                   64
    (2.938, 5.27]                    64
    (0.94, 1.738]                    63
    # 可以自定义分组区间
    bins = [-100, -7, -5, -3, 0, 3, 5, 7, 100]
    cut = pd.cut(data_p, bins)
    cut.value_counts()
    (0, 3]        215
    (-3, 0]       188
    (3, 5]         57
    (-5, -3]       51
    (5, 7]         35
    (7, 100]       35
    (-100, -7]     34
    (-7, -5]       28
    # 3. 得出one-hot编码矩阵
    pd.get_dummies(cut, prefix="rise").head()
    

    one-hot编码矩阵前5行如图所示:

    8.3 数据合并

  • pd.concat([data1, data2], axis=1)
  • 按照行或列进行合并,axis=0为列索引(默认),axis=1为行索引
  • 将处理好的one-hot编码矩阵与原数据合并

  • pd.merge(left, right, how=‘inner’, on=None, left_on=None, right_on=None)
  • 可以指定按照两组数据的共同键值对合并或者左右各自
  • left:左表
  • right:右表
  • how:指定合并的方式 ,与数据库表的连接方式原理一样
  • inner:内连接,默认连接方式
  • outer:外连接
  • left:左连接
  • right:右连接
  • on: 指定键
  • left_on=None, right_on=None:指定左右键
  • left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],
                            'key2': ['K0', 'K1', 'K0', 'K1'],
                            'A': ['A0', 'A1', 'A2', 'A3'],
                            'B': ['B0', 'B1', 'B2', 'B3']})
    
    right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
                            'key2': ['K0', 'K0', 'K0', 'K0'],
                            'C': ['C0', 'C1', 'C2', 'C3'],
                            'D': ['D0', 'D1', 'D2', 'D3']})
    
    # 默认内连接, 指定'key1', 'key2'
    pd.merge(left, right, on=['key1', 'key2'])
    

    # 外连接
    pd.merge(left, right, how='outer', on=['key1', 'key2'])
    

    # 左连接
    pd.merge(left, right, how='left', on=['key1', 'key2'])
    

    # 右连接
    pd.merge(left, right, how='right', on=['key1', 'key2'])
    

    8.4 交叉表与透视表

    透视表(pivot table)数据汇总分析工具
    
    交叉表(crosstab)是一种用于计算分组频率的特殊透视表
    
    用于计算一列数据对于另外一列数据的分组频率(寻找两个列之间的关系)
    
  • pd.crosstab(value1, value2) 交叉表
  • 案例分析:探究星期几跟股票涨跌的关系

    1.准备两列数据,星期数据以及涨跌数据

    # 先把对应的日期找到星期几
    weekday = pd.to_datetime(data.index).weekday
    # 增加一列weekday 表示星期几 星期一至星期日 分别为0~6
    data['weekday'] = weekday
    # 把p_change按照大小去分个类0为界限
    up_or_down = np.where(data['p_change'] > 0, 1, 0)
    # 增加一列up_or_down,表示涨跌情况 1涨,0跌
    data['up_or_down'] = up_or_down
    

    2.通过交叉表找寻两列数据的关系

    # 通过交叉表找寻两列数据的关系
    result= pd.crosstab(data['weekday'], data['up_or_down'])
    
    	up_or_down	0	1
    weekday		
    0				63	62
    1				55	76
    2				61	71
    3				63	65
    4				59	68
    

    3.此时得到的result只是每天涨跌的次数,并没有得到比例,可以通过先求和,再计算百分比

    # 算数运算,先求和
    sum = result.sum(axis=1)
    # 进行相除操作,得出比例
    per = result.div(sum, axis=0)
    up_or_down	0	1
    weekday		
    0			0.504000	0.496000
    1			0.419847	0.580153
    2			0.462121	0.537879
    3			0.492188	0.507812
    4			0.464567	0.535433
    

    4.画图,查看效果

    #  stacked=True 表示堆积显示
    pro.plot(kind='bar', stacked=True)
    

  • DataFrame.pivot_table([], index=[]) 透视表
  • 使用透视表,刚才的过程更加简单,可以直接得到一组数据占另一组数据的百分比

    per = data.pivot_table(['up_or_down'], index='weekday')
    
    		up_or_down
    weekday	
    0		0.496000
    1		0.580153
    2		0.537879
    3		0.507812
    4		0.535433
    

    8.5 分组与聚合

    分组与聚合通常是分析数据的一种方式,通常与一些统计函数一起使用,查看数据的分组情况

    DataFrame.groupby(key, as_index=True)

  • key:分组的列数据,可以多个
  • as_index:是否进行索引,默认True
  • 案例:不同颜色的不同笔的价格数据,对颜色分组,价格进行聚合

    col =pd.DataFrame({'color': ['white','red','green','red','green'], 'object': ['pen','pencil','pencil','ashtray','pen'],'price1':[5.56,4.20,1.30,0.56,2.75],'price2':[4.75,4.12,1.60,0.75,3.15]})
    # 对颜色分组,price1进行聚合,求均值
    col.groupby('color')['price1'].mean()	# 方法1 常用
    col['price1'].groupby(col['color']).mean()	# 方法2
    
    color
    green    2.025
    red      2.380
    white    5.560
    

    来源:Buckletime

    物联沃分享整理
    物联沃-IOTWORD物联网 » Python库-pandas详解

    发表评论