使用PHP/MySQL导出大型CSV数据的最佳方法是什么?

前端之家收集整理的这篇文章主要介绍了使用PHP/MySQL导出大型CSV数据的最佳方法是什么?前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

我正在开发一个项目,我需要从包含近10k行的数据库提取数据,然后将其导出为CSV.我尝试了下载CSV的常规方法,但即使我们已经将memory_limit设置为256MB,我也总是遇到内存限制问题.

如果您有任何人遇到同样的问题,请分享您对什么是最佳解决方案或方法的看法.

真的很感激你的想法.

这是我的实际代码

$filename = date('Ymd_His').'-export.csv';

//output the headers for the CSV file
header("Cache-Control: must-revalidate,post-check=0,pre-check=0");
header('Content-Description: File Transfer');
header("Content-type: text/csv");
header("Content-Disposition: attachment; filename={$filename}");
header("Expires: 0");
header("Pragma: public");

//open the file stream
$fh = @fopen( 'PHP://output','w' );

$headerDisplayed = false;

foreach ( $formatted_arr_data_from_query as $data ) {
    // Add a header row if it hasn't been added yet -- using custom field keys from first array
    if ( !$headerDisplayed ) {
        fputcsv($fh,array_keys($ccsve_generate_value_arr));
        $headerDisplayed = true;
    }

    // Put the data from the new multi-dimensional array into the stream
    fputcsv($fh,$data);
}

// Close the file stream
fclose($fh);
最佳答案
如果你真的必须用PHP进行处理,你需要使用MysqL的limit命令来获取你的数据子集.每次只抓取一定数量的行,将它们写入文件然后获取下一组.

您可能需要在查询循环中的一些变量上运行unset().关键是不要在内存中同时存在太多巨大的arrarys.

如果您正在抓取整个合并表,请按插入日期升序对其进行排序,以便第二次抓取将获得任何较新的项目.

猜你在找的MySQL相关文章