Pandas 2.0正式版在4月3日曾经公布了,当前咱们pip install默认装置的就是2.0版了,Polars 是最近比拟火的一个DataFrame 库,最近在kaggle上常常应用,所以这里咱们将比照下 Pandas 1.5,Polars,Pandas 2.0 。看看在速度上 Pandas 2.0有没有劣势。
Polars
Polars 是一个 Rust 和 Python 中的疾速多线程 DataFrame 库/内存查问引擎。它应用 Apache Arrow作为内存模型在 Rust 中实现。它在2021年3月公布。
Polars的一些次要特点如下:
- 疾速:Polars在解决大型数据集时十分高效。它应用Rust编写,利用Rust的内存平安和零老本形象,能够在不就义性能的状况下解决大规模数据集。
- 可扩大:Polars反对并行化和分布式计算,因而能够解决十分大的数据集。它还具备可插拔的数据源接口,能够从不同的数据源读取和写入数据。
- 易于应用:Polars具备相似于Pandas的API,因而相熟Pandas的用户能够很容易地开始应用Polars。它还具备残缺的文档和示例,可帮忙用户疾速入门。
- 反对多种数据类型:Polars反对许多常见的数据类型,包含数字,布尔值,字符串和日期工夫。它还反对相似于DataFrame的表格构造,能够进行列操作和过滤等操作。
Polars的一个最大益处是,它不仅有Python的包,Nodejs,Rust等也能够不便的进行继承应用,并且通过各方的验证,它确实要比Pandas1.x快很多。
Pandas 2.0
在之前的文章咱们曾经介绍了 Pandas 2.0,“它要快得多”(还不是稳固版本)。并且它也有了Apache Arrow的后端。
当初,他的正式版公布了,对于Pandas 2.0 的更新请看官网阐明:
https://pandas.pydata.org/docs/dev/whatsnew/v2.0.0.html
上面咱们就要开始进行简略的测试了,咱们要测试这3个库的性能,所以须要应用一些比拟大型的数据集。这里咱们应用纽约出租车数据集。
简略ETL
从Data Talks Club下载csv数据集,NYC.gov下载parquet数据集。
!wget https://github.com/DataTalksClub/nyc-tlc-data/releases/download/yellow/yellow_tripdata_2021-01.csv.gz !wget https://d37ci6vzurychx.cloudfront.net/trip-data/yellow_tripdata_2021-01.parquet
还须要纽约市区域。
!wget https://s3.amazonaws.com/nyc-tlc/misc/taxi+_zone_lookup.csv
1、E 提取
把csv文件和parquet文件转换为DF,测试提取的性能。
上面是pandas的
def pd_read_csv(path, engine_pd,): """ Converting csv file into Pandas dataframe """ df= pd.read_csv(path, engine=engine_pd) return df def pd_read_parquet(path, ): """ Converting parquet file into Pandas dataframe """ df= pd.read_parquet(path,) return df
这里是Polars的
def pl_read_csv(path, ): """ Converting csv file into Pandas dataframe """ df= pl.read_csv(path,) return df def pl_read_parquet(path, ): """ Converting parquet file into Pandas dataframe """ df= pl.read_parquet(path,) return df
读取代码如下:
path1="yellow_tripdata_2021-01.csv.gz" df_trips= pd_read_csv(path1, engine_pd) path2="taxi+_zone_lookup.csv" df_zone= pd_read_csv(path2, engine_pd) path1="yellow_tripdata_2021-01.parquet" df_trips= pd_read_parquet(path1,) path2 = "taxi+_zone_lookup.csv" df_zone = pd_read_csv(path2, engine_pd)
2、T 转换
为了测试,咱们通过Pickup Id获取trip_distance的均值;
过滤查问性能所以获取以“East”结尾的区域。
Pandas代码:
def mean_test_speed_pd(df_pd): """ Getting Mean per PULocationID """ df_pd = df_pd[['PULocationID', 'trip_distance']] df_pd["PULocationID_column"] = df_pd[['PULocationID']].astype(int) df_pd=df_pd.groupby('PULocationID').mean() return df_pd def endwith_test_speed_pd(df_pd): """ Only getting Zones that end with East """ df_pd = df_pd[df_pd.Zone.str.endswith('East')] return df_pd
Polars
def mean_test_speed_pl(df_pl): """ Getting Mean per PULocationID """ df_pl = df_pl[['PULocationID', 'trip_distance']].groupby('PULocationID').mean() return df_pl def endwith_test_speed_pd(df_pl): """ Only getting Zones that end with East """ df_pl = df_pl.filter(pl.col("Zone").str.ends_with('East')) return df_pl
3、L 加载
将最终后果加载回parquet文件,能够测试写入性能:
pandas
def loading_into_parquet(df_pd, engine): """ Save dataframe in parquet """ df_pd.to_parquet(f'yellow_tripdata_2021-01_pd_v{pd.__version__}.parquet',engine)
polars
def loading_into_parquet(df_pl): """ Save dataframe in parquet """ df_pl.write_parquet(f'yellow_tripdata_2021-01_pl.parquet')
4、后果
运行ETL流程后,依据每个过程的秒平均值,测试性能的最终后果如下表所示。
能够看到POLARS很棒
然而下面代码是不是有问题呢?
对,还记得咱们在pandas2.0那篇文章中说过,read_csv取得Numpy数据类型,为read_parquet取得Pyarrow数据类型。而Polars中,当咱们执行read_csv和read_parquet时,咱们为所有列取得雷同的数据类型。所以咱们测试的并不精确。另外咱们也没有比拟比拟RAM和CPU的应用状况,所以没有全方位的测试。
上面咱们开始修复下面的问题,并增加RAM和CPU的应用状况,这样应该算是一个比较完善的测试了。
CPU和RAM剖析
咱们能够应用process.memory_info()查看每个函数之前、之后和之间的内存。而psutil.cpu_percent能够取得最近2秒内的CPU。所以就有了上面的装璜器:
import os import psutil def process_memory(): process = psutil.Process(os.getpid()) mem_info = process.memory_info() return mem_info.rss def process_cpu(): """ Getting cpu_percent in last 2 seconds """ cpu_usage = psutil.cpu_percent(2) return cpu_usage # decorator function mem def profile_mem(func): def wrapper(*args, **kwargs): mem_before = process_memory() result = func(*args, **kwargs) mem_after = process_memory() print("Consumed memory: {:,}".format( mem_before, mem_after, mem_after - mem_before)) return result return wrapper # decorator function cpu def profile_cpu(func): def wrapper(*args, **kwargs): result = func(*args, **kwargs) cpu_after = process_cpu() print(f"Consumed cpu: {cpu_after}") return result return wrapper
装璜器调用办法如下图所示
残缺测试后果
咱们就间接来看后果了(每个测试都运行了三次):
parquet文件提取的新脚本,最终的工夫后果与后面测试相似:
CPU后果
RAM的后果
后果难以解释,然而能够阐明rust确实内存占用高
然而咱们看到,POLARS确实还是要快一些,如果在解决工夫是一个十分重要的指标的时候能够试试POLARS(然而他的CPU占用高,阐明如果比较慢的CPU也不肯定能取得进步,还要具体测试),如果你不想学习POLARS的语法,那么Pandas 2.0应该是速度很快的一个折中的抉择了。
如果你想本人测试,残缺代码在这里:
https://avoid.overfit.cn/post/73c12c85ff124f9bb7947ac4d82316b8
作者:Luís Oliveira