专栏名称: 数据分析1480
积土成山,积水成渊!!定期与大家分享数据分析和挖掘方面的干货,包括分析工具R与Python的使用、数据分析的案例、及最新的数据领域资讯。
目录
相关文章推荐
金融街老裘  ·  业绩增长30%,股价却不动 ·  昨天  
北京生态环境  ·  中国证监会提出18条政策举措 ... ·  2 天前  
北京生态环境  ·  中国证监会提出18条政策举措 ... ·  2 天前  
51好读  ›  专栏  ›  数据分析1480

那些功能逆天,却鲜为人知的pandas骚操作

数据分析1480  · 公众号  ·  · 2020-03-24 11:30

正文



文章来源:Python数据科学

作者:东哥


pandas有些功能很逆天,但却鲜为人知,本篇给大家盘点一下。


一、A CCESSOR


pandas有一种功能非常强大的方法,它就是 accessor ,可以将它理解为一种属性接口,通过它可以获得额外的方法。其实这样说还是很笼统,下面我们通过代码和实例来理解一下。


>>> pd.Series._accessors
{'cat''str''dt'}

对于Series数据结构使用_accessors方法,可以得到了3个对象:cat,str,dt。

  • .cat :用于分类数据(Categorical data)

  • .str 用于字符数据(String Object data)

  • .dt 用于时间数据(datetime-like data)


下面我们依次看一下这三个对象是如何使用的。


str对象的使用


Series数据类型:str字符串


# 定义一个Series序列
>>> addr = pd.Series([
...     'Washington, D.C. 20003',
...     'Brooklyn, NY 11211-1755',
...     'Omaha, NE 68154',
...     'Pittsburgh, PA 15211'
... ]) 

>>> addr.str.upper()
0     WASHINGTON, D.C. 20003
1    BROOKLYN, NY 11211-1755
2            OMAHA, NE 68154
3       PITTSBURGH, PA 15211
dtype: object

>>> addr.str.count(r'\d'
0    5
1    9
2    5
3    5
dtype: int64


关于以上str对象的2个方法说明:

  • Series.str.upper :将Series中所有字符串变为大写

  • Series.str.count 对Series中所有字符串的个数进行计数


其实不难发现,该用法的使用与Python中字符串的操作很相似。没错,在pandas中你一样可以这样简单的操作,而不同的是你操作的是一整列的字符串数据。仍然基于以上数据集,再看它的另一个操作:


>>> regex = (r'(?P[A-Za-z ]+), '      # 一个或更多字母
...          r'(?P[A-Z]{2}) '        # 两个大写字母
...          r'(?P\d{5}(?:-\d{4})?)')  # 可选的4个延伸数字
...
>>> addr.str.replace('.''').str.extract(regex)
         city state         zip
0  Washington    DC       20003
1    Brooklyn    NY  11211-1755
2       Omaha    NE       68154
3  Pittsburgh    PA       15211


关于以上str对象的2个方法说明:

  • Series.str.replace :将Series中指定字符串替换
  • Series.str.extract :通过正则表达式提取字符串中的数据信息


这个用法就有点复杂了,因为很明显看到,这是一个链式的用法。通过 replace将 " . " 替换为"",即为空 紧接着又使用了 3个正则表达式(分别对应city,state,zip)通过extract对数据进行了提取 并由原来的Series数据结构变为了DataFrame数据结构。


当然,除了以上用法外,常用的属性和方法还有 .rstrip,.contains,split 等,我们通过下面代码查看一下 str 属性的完整列表:


>>> [i for i in dir(pd.Series.str) if not i.startswith('_')]
['capitalize',
 'cat',
 'center',
 'contains',
 'count',
 'decode',
 'encode',
 'endswith',
 'extract',
 'extractall',
 'find',
 'findall',
 'get',
 'get_dummies',
 'index',
 'isalnum',
 'isalpha',
 'isdecimal',
 'isdigit',
 'islower',
 'isnumeric',
 'isspace' ,
 'istitle',
 'isupper',
 'join',
 'len',
 'ljust',
 'lower',
 'lstrip',
 'match',
 'normalize',
 'pad',
 'partition',
 'repeat',
 'replace',
 'rfind',
 'rindex',
 'rjust',
 'rpartition',
 'rsplit',
 'rstrip',
 'slice',
 'slice_replace',
 'split',
 'startswith',
 'strip',
 'swapcase',
 'title',
 'translate',
 'upper',
 'wrap',
 'zfill']


属性有很多,对于具体的用法,如果感兴趣可以自己进行摸索练习。


dt对象的使用


Series数据类型:datetime


因为数据需要 datetime 类型,所以下面使用 pandas的date_range() 生成了一组日期datetime演示如何进行dt对象操作。


>>> daterng = pd.Series(pd.date_range('2017', periods=9, freq='Q'))
>>> daterng
0   2017-03-31
1   2017-06-30
2   2017-09-30
3   2017-12-31
4   2018-03-31
5   2018-06-30
6   2018-09-30
7    2018-12-31
8   2019-03-31
dtype: datetime64[ns]

>>>  daterng.dt.day_name()
0      Friday
1      Friday
2    Saturday
3      Sunday
4    Saturday
5    Saturday
6      Sunday
7      Monday
8      Sunday
dtype: object

>>> # 查看下半年
>>> daterng[daterng.dt.quarter > 2]
2   2017-09-30
3   2017-12-31
6   2018-09-30
7   2018-12-31
dtype: datetime64[ns]

>>> daterng[daterng.dt.is_year_end]
3   2017-12-31
7   2018-12-31
dtype: datetime64[ns]


以上关于dt的3种方法说明:

  • Series.dt.day_name() :从日期判断出所处星期数
  • Series.dt.quarter :从日期判断所处季节
  • Series.dt.is_year_end :从日期判断是否处在年底

其它方法也都是基于datetime的一些变换,并通过变换来查看具体微观或者宏观日期。


cat对象的使用


Series数据类型:Category


在说cat对象的使用前,先说一下Category这个数据类型,它的作用很强大。虽然我们没有经常性的在内存中运行上g的数据,但是我们也总会遇到执行几行代码会等待很久的情况。使用Category数据的一个好处就是: 可以很好的节省在时间和空间的消耗。 下面我们通过几个实例来学习一下。


>>> colors = pd.Series([
...     'periwinkle',
...     'mint green',
...     'burnt orange',
...     'periwinkle',
...     'burnt orange',
...     'rose',
...     'rose',
...     'mint green',
...     'rose',
...     'navy'
... ])
...
>>> import sys
>>> colors.apply(sys.getsizeof)
0     59
1    59
2    61
3    59
4    61
5    53
6    53
7    59
8    53
9    53
dtype: int64


上面我们通过使用 sys.getsizeof 来显示内存占用的情况,数字代表字节数。还有另一种计算内容占用的方法: memory_usage() ,后面会使用。


现在我们将上面colors的不重复值映射为一组整数,然后再看一下占用的内存。


>>> mapper = {v: k for k, v in enumerate(colors.unique())}
>>> mapper
{'periwinkle'0'mint green'1'burnt orange'2'rose'3'navy'4}

>>> as_int = colors.map(mapper)
>>> as_int
0    0
1    1
2    2
3    0
4    2
5    3
6    3
7    1
8    3
9    4
dtype: int64

>>> as_int.apply(sys.getsizeof)
0    24
1    28
2    28
3    24
4    28
5    28
6    28
7    28
8    28
9    28
dtype: int64


注:对于以上的整数值映射也可以使用更简单的 pd.factorize() 方法代替。


我们发现上面所占用的内存是使用object类型时的一半。其实,这种情况就类似于Category data类型内部的原理。


内存占用区别: Categorical所占用的内存与Categorical分类的数量和数据的长度成正比,相反,object所占用的内存则是一个常数乘以数据的长度。


下面是object内存使用和category内存使用的情况对比。


>>> colors.memory_usage(index=False, deep=True)
650
>>> colors.astype('category').memory_usage(index=False, deep=True)
495


上面结果是使用 object Category 两种情况下内存的占用情况。我们发现效果并没有我们想象中的那么好。但是注意Category内存是成比例的,如果数据集的数据量很大,但不重复分类(unique)值很少的情况下, 那么Category的内存占用可以节省达到10倍以上 ,比如下面数据量增大的情况:


>>> manycolors = colors.repeat(10)
>>> len(manycolors) / manycolors.nunique() 
20.0

>>> manycolors.memory_usage(index=False, deep=True)
6500
>>> manycolors.astype('category').memory_usage(index=False, deep=True)
585


可以看到,在数据量增加10倍以后,使用Category所占内容节省了10倍以上。


除了占用内存节省外,另一个额外的好处是计算效率有了很大的提升。 因为对于Category类型的Series,str字符的操作发生在.cat.categories的非重复值上,而并非原Series上的所有元素上。也就是说对于每个非重复值都只做一次操作,然后再向与非重复值同类的值映射过去。


对于Category的数据类型,可以使用accessor的cat对象,以及相应的属性和方法来操作Category数据。


>>> ccolors = colors.astype('category')
>>> ccolors.cat.categories
Index(['burnt orange''mint green''navy''periwinkle''rose'], dtype='object')


实际上,对于开始的整数类型映射,可以先通过 reorder_categories 进行重新排序,然后再使用 cat.codes 来实现对整数的映射,来达到同样的效果。


>>> ccolors.cat.reorder_categories(mapper).cat.codes
0    0
1    1
2    2
3    0
4    2
5    3
6    3
7    1
8    3
9    4
dtype: int8


dtype类型是Numpy的 int8(-127~128) 。可以看出以上只需要一个单字节就可以在内存中包含所有的值。我们开始的做法默认使用了int64类型,然而通过pandas的使用可以很智能的将Category数据类型变为最小的类型。


让我们来看一下cat还有什么其它的属性和方法可以使用。下面cat的这些属性基本都是关于查看和操作Category数据类型的。


>>> [i for i in dir(ccolors.cat) if not i.startswith('_')]
['add_categories',
 'as_ordered',
 'as_unordered',
 'categories',
 'codes',
 'ordered',
 'remove_categories',
 'remove_unused_categories',
 'rename_categories',
 'reorder_categories',
 'set_categories']


但是Category数据的使用不是很灵活。例如,插入一个之前没有的值,首先需要将这个值添加到 .categories 的容器中,然后再添加值。


>>> ccolors.iloc[5] = 'a new color'
# ...
ValueError: Cannot setitem on a Categorical with a new category,
set the categories first

>>> ccolors = ccolors.cat.add_categories(['a new color'])
>>> ccolors.iloc[5] = 'a new color'  


如果你想设置值或重塑数据,而非进行新的运算操作,那么Category类型不是那么有用。


二、 从clipboard剪切板载入数据


当我们的数据存在excel表里,或者其它的IDE编辑器中的时候,我们想要通过pandas载入数据。我们通常的做法是先保存再载入,其实这样做起来十分繁琐。一个简单的方法就是使用 pd.read_clipboard() 直接从电脑的剪切板缓存区中提取数据。

这样我们就可以直接将结构数据转变为DataFrame或者Series了。excel表中数据是这样的:


在纯文本文件中,比如txt文件,是这样的:

a   b           c       d
0   1           inf     1/1/00
2   7.389056099 N/A     5-Jan-13
4   54.59815003 nan     7/24/18
6   403.4287935 None    NaT

将上面excel或者txt中的数据选中然后复制,然后使用pandas的 read_clipboard() 即可完成到DataFrame的转换。 parse_dates 参数设置为 "d" ,可以自动识别日期,并调整为 xxxx-xx-xx 的格式。

>>> df = pd.read_clipboard(na_values=[None], parse_dates=['d'])
>>> df
   a         b    c          d
0  0    1.0000  inf 2000-01-01
1  2    7.3891  NaN 2013-01-05
2  4   54.5982  NaN 2018-07-24
3  6  403.4288  NaN        NaT

>>> df.dtypes
a             int64
b           float64
c           float64
d    datetime64[ns]
dtype: object


三、将pandas对象转换为“压缩”格式


在pandas中,我们可以直接将 objects 打包成为 gzip, bz2, zip, or xz 等压缩格式,而不必将没压缩的文件放在内存中然后进行转化。来看一个例子如何使用:

>>> abalone = pd.read_csv(url, usecols=[0123 48], names=cols)

>>> abalone
     sex  length   diam  height  weight  rings
0      M   0.455  0.365   0.095  0.5140     15
1      M   0.350  0.265   0.090  0.2255      7
2      F   0.530  0.420   0.135  0.6770      9
3      M   0.440  0.365   0.125  0.5160     10
4      I   0.330  0.255   0.080  0.2050      7
5      I   0.425  0.300   0.095  0.3515      8
6      F   0.530  0.415   0.150  0.7775     20
...   ..     ...    ...     ...     ...    ...
4170   M   0.550  0.430   0.130  0.8395     10
4171   M   0.560  0.430   0.155  0.8675      8
4172   F   0.565  0.450   0.165  0.8870     11
4173   M   0.590  0.440   0.135  0.9660     10
4174   M   0.600  0.475   0.205  1.1760      9
4175   F   0.625  0.485   0.150  1.0945     10
4176   M   0.710  0.555   0.195  1.9485     12

导入文件,读取并存为 abalone (DataFrame结构)。当我们要存为压缩的时候,简单的使用 to_json() 即可轻松完成转化过程。下面通过设置相应参数将 abalone 存为了 .gz 格式的压缩文件。

abalone.to_json('df.json.gz', orient='records',
                lines=True, compression='gzip')

如果我们想知道储存压缩文件的大小,可以通过内置模块 os.path ,使用 getsize 方法来查看文件的字节数。下面是两种格式储存文件的大小对比。






请到「今天看啥」查看全文