我有一个服务器有很多小
文件 – 数百万个
文件,超过1.5 TB的数据.我需要一个不错的备份策略.
>任何基于文件系统的备份都需要很长时间 – 只需枚举需要复制的文件需要一天时间.
> Acronis可以在24小时内执行磁盘映像,但在第二天尝试执行差异备份时失败.
> DFS-R不会使用这么多文件复制卷.
我开始看看Double Take,它似乎能够进行连续复制.是否有其他解决方案可以在块或扇区级别进行连续复制 – 而不是通过WAN逐个文件?
一些细节:
>文件分为约75,000个目录.
> 99%的每日变化来自添加新目录;现有文件很少更改.
还有其他一些相关的讨论here.
在
http://www.exdupe.com/:p时,1.5 TB需要30分钟
…鉴于你的磁盘足够快(exdupe太快了,它的IO绑定,而不是cpu绑定).
我还没有达到文件数量的限制.也有数百万.
编辑:啊,你需要一个基于分区/扇区的备份而不是文件系统级别?它不能那样做……也许http:// www. drivesnapshot.de/en/值得一试(因垃圾邮件保护而不得不添加空格).差异备份和阴影卷是否也复制(不重启).