关于python:Python爬虫数据合并应该先在list中合并再转pandas处理

纳闷

在pandas文档中看到,不倡议频繁应用append追加数据,而是应用concat连贯,可能提高效率。

于是想到,这样操作已有DataFrame时可能没别的方法,然而在爬虫中,常常是分批采集到数据,那应该在每个线程中转为DataFrame再最初合并,还是应该先用list追加(extand/append)最初再转为DataFrame?

于是本人测试一下,发现后果list解决比频繁转换DataFrame效率高得多。

所以,爬虫中应该先应用list存储、更新数据,抓取完结后再应用pandas解决。

测试如下

1. 应用pandas间接转为DataFrame,最初再concat合并

t = time.perf_counter()
pd1 = pd.concat([pd.DataFrame([[i, i, i, i]], columns=['0', '1', '2', '3']) for i in range(1000)],
                ignore_index=True)
t = time.perf_counter() - t
print(pd1)
print('工作全副实现耗时:', t)

输入:

[1000 rows x 4 columns]
工作全副实现耗时: 0.47608409999998

2. 应用list合并,最初应用pandas间接转为DataFrame

t = time.perf_counter()
lst = []
for i in range(1000):
    lst.extend([[i, i, i, i]])
pd1 = pd.DataFrame(lst, columns=['0', '1', '2', '3'])
t = time.perf_counter() - t
print(pd1)
print('工作全副实现耗时:', t)

输入:

[1000 rows x 4 columns]
工作全副实现耗时: 0.002777700000024197

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理