如何从linux服务器上的大(30Gb)zip文件中提取文件

前端之家收集整理的这篇文章主要介绍了如何从linux服务器上的大(30Gb)zip文件中提取文件前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
1)从大型zip文件提取

我想从linux服务器上的大型zip文件(30Gb)中提取文件.有足够的可用磁盘空间.

我试过jar xf dataset.zip.但是,按钮已满,出现错误,无法提取所有文件.

我尝试解压缩,但zipfile损坏.

Archive:  dataset.zip 
warning [dataset.zip]:  35141564204 extra bytes at beginning or within zipfile
(attempting to process anyway)
error [dataset.zip]:  start of central directory not found;
zipfile corrupt.
 (please check that you have transferred or created the zipfile in the
appropriate BINARY mode and that you have compiled UnZip properly)

我尝试了zip -FF dataset.zip –out data.zip,并且输入太大的错误

zip错误:条目太大而无法拆分,读取或写入(压缩效果不佳导致意外大量输入 – 请尝试-fz)

无论如何我能从高大的zip文件中有效地提取文件吗?

2)从大型zip文件提取某些文件

如果我只想要这个大型zip文件中的某些文件,那么我是否只能提取这些文件?例如,来自dataset.zip的data1.txt?似乎我不能使用任何zip或unzip命令(总是有zipfile损坏的问题).

谢谢!

解决方法

我已经解决了这个问题.事实证明这是一个zip损坏问题.我首先修复了以下文件
zip -FF filename1.zip --out filename2.zip -fz

然后解压缩固定的zipfile:

unzip filename2.zip

并已成功提取所有文件

非常感谢Fattaneh Talebi的帮助!

原文链接:https://www.f2er.com/linux/393511.html

猜你在找的Linux相关文章