python – 大型Pandas Dataframe并行处理

前端之家收集整理的这篇文章主要介绍了python – 大型Pandas Dataframe并行处理前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在访问一个非常大的Pandas数据帧作为全局变量.通过 joblib并行访问此变量.

例如.

df = db.query("select id,a_lot_of_data from table")

def process(id):
    temp_df = df.loc[id]
    temp_df.apply(another_function)

Parallel(n_jobs=8)(delayed(process)(id) for id in df['id'].to_list())

以这种方式访问​​原始df似乎是跨进程复制数据.这是意料之外的,因为原始df在任何子进程中都没有被改变? (或者是吗?)

解决方法

对于joblib创建的每个进程,需要对整个DataFrame进行pickle和unpickled.在实践中,这非常慢并且还需要很多次的记忆.

一种解决方案是使用表格格式将数据存储在HDF(df.to_hdf)中.然后,您可以使用select来选择数据子集以进行进一步处理.在实践中,这对于交互式使用来说太慢了.它也非常复杂,您的工作人员需要存储他们的工作,以便在最后一步中进行整合.

另一种方法是使用target =’parallel’探索numba.vectorize.这将需要使用NumPy数组而不是Pandas对象,因此它也有一些复杂性成本.

从长远来看,希望dask能够为熊猫带来并行执行,但这不是很快就会发生的事情.

原文链接:https://www.f2er.com/python/185934.html

猜你在找的Python相关文章