Ubuntu ZFS:如何将整个系统迁移到新磁盘?

前端之家收集整理的这篇文章主要介绍了Ubuntu ZFS:如何将整个系统迁移到新磁盘?前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
这是我的情景:

我在带有2 x 500 GB SATA磁盘的服务器上安装了Ubuntu和native ZFS.我按照本指南安装了它:https://github.com/dajhorn/pkg-zfs/wiki/HOWTO-install-Ubuntu-to-a-Native-ZFS-Root-Filesystem

所以我在磁盘1上有一个16 MB的分区用于/ boot / grub和该磁盘的其余部分以及整个第二个驱动器专用于镜像zpool中的ZFS.一切正常.

问题是,现在我需要摆脱500 GB磁盘并将其更换为2 x 1.5 TB磁盘.

有什么方法可以将我的两个500 GB硬盘中的所有内容(数据,分区表等)复制到两个1.GB TB硬盘而无需从头开始重新安装系统?

我在这里添加@jlliagre请求的信息:

FDISK:

# fdisk -l

Disk /dev/sda: 500.1 GB,500107862016 bytes
255 heads,63 sectors/track,60801 cylinders,total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xf4bfe018

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *          63       32129       16033+  be  Solaris boot
/dev/sda2           32130   976773167   488370519    5  Extended
/dev/sda5           32193   976773167   488370487+  bf  Solaris

Disk /dev/sdb: 500.1 GB,total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I    /O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xf4bfe018

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1              63   976773167   488386552+   5  Extended
/dev/sdb5             126   976773167   488386521   bf  Solaris

zpool状态:

# zpool status
  pool: labpool
 state: ONLINE
 scan: none requested
config:

    NAME        STATE     READ WRITE CKSUM
    labpool     ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        sda5    ONLINE       0     0     0
        sdb5    ONLINE       0     0     0

errors: No known data errors

zpool列表

# zpool list
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
labpool   464G  70.7G   393G    15%  1.00x  ONLINE  -

zpool历史

# zpool history
History for 'labpool':
2012-02-17.19:23:39 zpool create labpool mirror /dev/disk/by-id/ata-WDC_WD5000AAKX-001CA0_WD-WCAYUFF66324-part5 /dev/disk/by-id/ata-WDC_WD5000AAKX-001CA0_WD-WCAYUFJ06204-part5
2012-02-17.19:26:39 zfs create labpool/ROOT
2012-02-17.19:26:44 zfs create labpool/ROOT/ubuntu-1
2012-02-17.19:27:15 zfs set mountpoint=/ labpool/ROOT/ubuntu-1
2012-02-17.19:27:36 zpool set bootfs=labpool/ROOT/ubuntu-1 labpool
2012-02-17.19:28:03 zpool export labpool
2012-02-17.19:28:30 zpool import -d /dev/disk/by-id/ -R /mnt labpool
2012-02-17.20:48:20 zpool export labpool
2012-02-17.21:03:30 zpool import -f -N labpool
2012-02-17.21:07:35 zpool import -f -N labpool
2012-02-17.21:42:09 zpool import -f -N labpool
2012-02-17.21:51:39 zpool import -f -N labpool
2012-02-17.21:55:49 zpool import -f -N labpool
2012-02-17.21:58:10 zpool import -f -N labpool
2012-02-22.13:25:26 zpool import -f -N labpool
2012-02-22.13:40:15 zpool import -f -N labpool
2012-02-22.12:50:38 zpool import -f -N labpool

我一直在想:如果我从LiveCD启动,请按照installation guide到第4步(在我的新磁盘上分区并创建ZFS池),然后将新文件系统安装在/ mnt / new和旧文件系统上在/ mnt / old和rsync从旧到新?那有可能吗?或者它会搞砸一切?

这应该工作:

>在新磁盘上创建类似的分区布局,ZFS不会为您执行此操作.>复制启动分区并重新安装启动加载程序.>在根池上设置autoexpand属性zpool set autoexpand =在labpool上>替换其中一个磁盘,例如zpool替换labpool sda5 sdc5并等待重新同步以使用zpool status镜像所有池数据集>替换第二个磁盘zpool替换labpool sdb5 sdd5.>删除旧磁盘

猜你在找的Ubuntu相关文章