linux – 非常大的重复性缓存

前端之家收集整理的这篇文章主要介绍了linux – 非常大的重复性缓存前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我目前正在使用duplicity脚本将我的110G / 2T CentOS服务器备份到2T sftp服务器.

自4天过去以来,两面派只备了90G.这不是问题.主要问题是;我有近600G缓存,在“/user/.cache/duplicity”生成了双重性.这个尺寸不正常,所以我该怎么办?完成任务后,双重性是否会缩小或删除这些缓存文件文件夹? duplicity也会备份它的缓存(我没有排除/ user文件夹)?

附加信息:
我正在使用Hetzner服务器,这是我正在使用的备份脚本:
https://wiki.hetzner.de/index.php/Duplicity_Script/en

另外,我只是将目录proc,sys和dev从根目录中排除(并从根目录开始备份其他所有内容,因为我想要一个完整的服务器备份).

解决方法

根据 mailing list

you will have to manually exclude it ..

it holds your backup chains index files (table of contents of the
backup repository). Caching them locally accelerates options like
status and incremental backup and others. These operations need to
know what is already backed up to work. If they are cached they do not
need to be transferred and decrypted every time again and again.

.. ede

其余的似乎是long standing bug.

在Debian bug跟踪器上,they recommend to

duplicity cleanup --extra-clean --force ....

警告:建议的–extra-clean选项很危险,可能会让你很难受.它使备份unrestorable by usual means.

猜你在找的Linux相关文章