centos – CEPH的原始空间使用情况

前端之家收集整理的这篇文章主要介绍了centos – CEPH的原始空间使用情况前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我无法理解ceph原始空间的使用情况.

我在7台服务器上有14个硬盘(14个OSD),每个硬盘3TB~总共42 TB原始空间.

ceph -s 
     osdmap e4055: 14 osds: 14 up,14 in
      pgmap v8073416: 1920 pgs,6 pools,16777 GB data,4196 kobjects
            33702 GB used,5371 GB / 39074 GB avail

我创建了4个块设备,每个5 TB:

df -h
 /dev/rbd1       5.0T  2.7T  2.4T  54% /mnt/part1
/dev/rbd2       5.0T  2.7T  2.4T  53% /mnt/part2
/dev/rbd3       5.0T  2.6T  2.5T  52% /mnt/part3
/dev/rbd4       5.0T  2.9T  2.2T  57% /mnt/part4

df表明总共使用了10,9 TB,ceph显示使用了33702 GB.如果我有2份拷贝,它必须是~22 TB,但现在我使用了33,7 TB – 错过了11 TB.

ceph osd pool get archyvas size
size: 2


ceph df
GLOBAL:
    SIZE       AVAIL     RAW USED     %RAW USED
    39074G     5326G       33747G         86.37
POOLS:
    NAME          ID     USED      %USED     MAX AVAIL     OBJECTS
    data          0          0         0         1840G           0
    Metadata      1          0         0         1840G           0
    archyvas      3      4158G     10.64         1840G     1065104
    archyvas2     4      4205G     10.76         1840G     1077119
    archyvas3     5      3931G     10.06         1840G     1006920
    archyvas4     6      4483G     11.47         1840G     1148291

块设备和OSD FS – XFS

一个可能的混淆源是GB与GiB / TB对比TiB(基数10 /基数2),但这无法解释这里的所有差异.

Ceph / RBD将尝试“懒洋洋地”为您的卷分配空间.这就是为什么虽然您创建了四个5TB卷,但它报告使用了16TB而不是20个.但是16TB超过了RBD支持文件系统的“活动”内容的总和,正如您所说的那样,它只有大约11TB.有几点需要注意:

当您删除RBD支持文件系统中的文件时,文件系统将在内部将块标记为空闲,但通常不会尝试将它们“返回”到底层块设备(RBD).如果你的内核RBD版本足够新(3.18或更新版本),你应该能够使用fstrim将释放的块返回给RBD.我怀疑你在这些文件系统上创建并删除了其他文件,对吧?

除了df所示的净数据使用之外,还有一些文件系统开销.除了“超级块”和其他文件系统内部数据结构之外,还可以从RBD分配数据的粒度中获得一些开销.我认为RBD将始终分配4MB块,即使只使用了其中的一部分.

猜你在找的CentOS相关文章