关于人工智能:Pandas-DataFrame-数据存储格式比较

5次阅读

共计 2790 个字符,预计需要花费 7 分钟才能阅读完成。

Pandas 反对多种存储格局,在本文中将对不同类型存储格局下的 Pandas Dataframe 的读取速度、写入速度和大小的进行测试比照。

创立测试 Dataframe

首先创立一个蕴含不同类型数据的测试 Pandas Dataframe。

 import pandas as pd
 import random
 import string
 import numpy as np
 
 # Config DF
 df_length= 10**6
 start_date= '2023-01-01'
 all_string= list(string.ascii_letters + string.digits)
 string_length= 10**1
 min_number= 0
 max_number= 10**3
 
 # Create Columns
 date_col= pd.date_range(start= start_date, periods= df_length, freq= 'H')
 str_col= [''.join(np.random.choice(all_string, string_length)) for i in range(df_length)]
 float_col= np.random.rand(df_length)
 int_col= np.random.randint(min_number,max_number, size = df_length)
 
 # Create DataFrame
 df= pd.DataFrame({'date_col' : date_col, 
                   'str_col' : str_col, 
                   'float_col' : float_col, 
                   'int_col' : int_col})
 df.info()
 df.head()

以不同的格局存储

接下来创立测试函数,以不同的格局进行读写。

 import time 
 import os
 
 def check_read_write_size(df, file_name, compression= None) :
     format= file_name.split('.')[-1]
     # Write
     begin= time.time()
     if file_name.endswith('.csv') : df.to_csv(file_name, index= False, compression= compression)
     elif file_name.endswith('.parquet') : df.to_parquet(file_name, compression= compression)
     elif file_name.endswith('.pickle') : df.to_pickle(file_name, compression= compression)
     elif file_name.endswith('.orc') : df.to_orc(file_name)
     elif file_name.endswith('.feather') : df.to_feather(file_name)
     elif file_name.endswith('.h5') : df.to_hdf(file_name, key= 'df')
     write_time= time.time() - begin
     # Read
     begin= time.time()
     if file_name.endswith('.csv') : pd.read_csv(file_name, compression= compression)
     elif file_name.endswith('.parquet') : pd.read_parquet(file_name)
     elif file_name.endswith('.pickle') : pd.read_pickle(file_name, compression= compression)
     elif file_name.endswith('.orc') : pd.read_orc(file_name)
     elif file_name.endswith('.h5') : pd.read_hdf(file_name)
     read_time= time.time() - begin
     # File Size
     file_size_mb = os.path.getsize(file_name) / (1024 * 1024)
     return [format, compression, read_time, write_time, file_size_mb]

而后运行该函数并将后果存储在另一个 Pandas Dataframe 中。

 test_case= [['df.csv','infer'],
             ['df.csv','gzip'],
             ['df.pickle','infer'],
             ['df.pickle','gzip'],
             ['df.parquet','snappy'],
             ['df.parquet','gzip'],
             ['df.orc','default'],
             ['df.feather','default'],
             ['df.h5','default'],
             ]
 
 result= []
 for i in test_case :
     result.append(check_read_write_size(df, i[0], compression= i[1]))
 
 result_df= pd.DataFrame(result, columns= ['format','compression','read_time','write_time','file_size'])
 result_df

测试后果

上面的图表和表格是测试的后果。

咱们对测试的后果做一个简略的剖析

CSV

  • 未压缩文件的大小最大
  • 压缩后的尺寸很小,但不是最小的
  • CSV 的读取速度和写入速度是最慢的

Pickle

  • 体现得很均匀
  • 但压缩写入速度是最慢的

Feather

最快的读写速度,文件的大小也是中等,十分的均匀

ORC

  • 所有格局中最小的
  • 读写速度十分快,简直是最快的

Parquet

总的来说,疾速并且十分小,然而并不是最快也不是最小的

总结

从后果来看,咱们应该应用 ORC 或 Feather,而不再应用 CSV ? 是吗?

“这取决于你的零碎。”

如果你正在做一些独自的我的项目,那么应用最快或最小的格局必定是有意义的。

但大多数时候,咱们必须与别人单干。所以,除了速度和大小,还有更多的因素。

未压缩的 CSV 可能很慢,而且最大,然而当须要将数据发送到另一个零碎时,它非常容易。

ORC 作为传统的大数据处理格局(来自 Hive)对于速度的和大小的优化是做的最好的,Parquet 比 ORC 更大、更慢,然而它却是在速度和大小中获得了最佳的均衡,并且反对他的生态也多,所以在须要解决大文件的时候能够优先选择 Parquet。

https://avoid.overfit.cn/post/387acc48c7dd42a49f7bec90cc6d09ae

作者:Chanon Krittapholchai

正文完
 0