linux – 网站的增量备份

前端之家收集整理的这篇文章主要介绍了linux – 网站的增量备份前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我想制作我网站的定期存档.
我有lftp脚本通过ftp将网站内容下载到今天(日期%Y%m%d)目录.
在没有多次重复的情况下进行增量压缩备份的最佳方法是什么?

解决方法

Duplicity可能符合您的需求.

它是增量的:执行完整备份后,所有未来的备份都只是差异文件.值得注意的是,它与存储最新状态镜像的其他备份解决方案相反,而差异文件则重新创建以前的备份点.

它是压缩的:Duplicity是一个加密的备份(可能对你有好处,因为你被FTP困住了?) – 加密文件被压缩(据我所知).您也可以绕过加密,只需获得一个gzip压缩备份. (–no加密)

它适用于FTP:Duplicity可以使用许多远程协议(包括FTP),在你的情况下,问题是需要从你的服务器运行双重性.我不相信您可以使用duplicity将远程源备份到本地目标(只是本地源到远程目标).

在您的情况下,如果您没有在传输数据时寻找压缩优势,只存储数据,那么您可以保留您的FTP脚本,并在转移当前“图像”之后将备用信息备份到您现有的临时图像备份,删除图像.这样,您将拥有一系列备份文件,可用于在任何备份点恢复您的站点,并且这些文件将仅是上次备份点的更改的gziped归档.

只需注意,每隔一段时间做一次“完整”备份是明智的,因为duplicity依赖于完整备份中的每个增量备份.

另一种解决方案(假设再次在本地临时存储FTP的副本是可以接受的),只需使用rdiff-backup.这将为您提供您站点的镜像(从上次备份开始),过去的备份将存储为差异倒退.我不确定它们是否已压缩,但即使它们不是,您也只会将更改存储到每个备份点的文件中.

原文链接:https://www.f2er.com/linux/396174.html

猜你在找的Linux相关文章