我有一个非常大的csv,我需要阅读.为了使这快速和节省RAM使用我使用read_csv并将一些列的dtype设置为np.uint32.问题是某些行缺少值,而pandas使用float来表示这些值.
>是否可以简单地跳过缺少值的行?我知道在读完整个文件后我可以这样做,但这意味着我不能在那之前设置dtype,所以会使用太多RAM.
>在读取数据期间,是否可以将缺失值转换为我选择的其他值?
解决方法
如果你能在阅读过程中用Na 0填充NaN,这将是美味的.也许Pandas的git-hub中的功能请求是有序的……
使用转换器功能
但是,目前,您可以定义自己的函数来执行此操作并将其传递给read_csv
中的converter参数:
def conv(val): if val == np.nan: return 0 # or whatever else you want to represent your NaN with return val df = pd.read_csv(file,converters={colWithNaN : conv},dtypes=...)
请注意,转换器采用dict,因此您需要为每个要处理NaN的列指定它.如果很多列受到影响,它可能会有点令人厌烦.您可以指定列名称或数字作为键.
另请注意,这可能会降低read_csv性能,具体取决于转换器功能的处理方式.此外,如果您只有一列需要在读取期间处理NaN,则可以跳过正确的函数定义并使用lambda函数:
df = pd.read_csv(file,converters={colWithNaN : lambda x: 0 if x == np.nan else x},dtypes=...)
阅读大块
你也可以用你缝合在一起的小块来读取文件以获得最终输出.你可以用这种方式做很多事情.这是一个说明性的例子:
result = pd.DataFrame() df = pd.read_csv(file,chunksize=1000) for chunk in df: chunk.dropna(axis=0,inplace=True) # Dropping all rows with any NaN value chunk[colToConvert] = chunk[colToConvert].astype(np.uint32) result = result.append(chunk) del df,chunk
请注意,此方法不严格复制数据.有一段时间,块中的数据存在两次,紧接在result.append语句之后,但只重复了chunksize行,这是一个公平的讨价还价.该方法也可以比使用转换器功能更快.