如何从Perl快速访问许多大型CSV文件中的数据?

前端之家收集整理的这篇文章主要介绍了如何从Perl快速访问许多大型CSV文件中的数据?前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我有许多脚本,目前从一些.CSV文件中读取大量数据.为了提高效率,我使用 Text::CSV_XS模块读取它们,然后使用其中一列作为索引创建哈希.但是,我有很多文件,而且它们非常大.每个脚本都需要重新读取数据.

问题是:如何才能持久存储这些Perl哈希值,以便用最少的cpu读回所有这些哈希值?

组合脚本不是一种选择.我希望…

我应用了第二个优化规则并使用分析来发现绝大多数cpu(大约90%)位于:

Text::CSV_XS::fields
Text::CSV_XS::Parse
Text::CSV_XS::parse

因此,我制作了一个测试脚本,读取所有.CSV文件(Text :: CSV_XS),使用Storable模块转储它们,然后返回并使用Storable模块读回它们.我描述了这个,所以我可以看到cpu时间:

$c:/perl/bin/dprofpp.bat
Total Elapsed Time = 1809.397 Seconds
  User+System Time = 950.5560 Seconds
Exclusive Times
%Time ExclSec CumulS #Calls sec/call Csec/c  Name
 25.6   243.6 243.66    126   1.9338 1.9338  Storable::pretrieve
 20.5   194.9 194.92 893448   0.0002 0.0002  Text::CSV_XS::fields
 9.49   90.19 90.198 893448   0.0001 0.0001  Text::CSV_XS::Parse
 7.48   71.07 71.072    126   0.5641 0.5641  Storable::pstore
 4.45   42.32 132.52 893448   0.0000 0.0001  Text::CSV_XS::parse
 (the rest was in terms of 0.07% or less and can be ignored)

因此,与Text :: CSV_XS相比,使用可存储成本约25.6%重新加载,大约35%.节省不多……

是否有人建议我如何更有效地阅读这些数据?

谢谢你的帮助.

解决方法

解析数据一次并将其放入 SQLite db.使用 DBI查询.
原文链接:https://www.f2er.com/Perl/172044.html

猜你在找的Perl相关文章