ceph rawスペースの使用状況を理解できません。
7台のサーバーに14台のHDD(14個のOSD)があり、各HDDが3TBで、合計で42TBのrawスペースがあります。
ceph -s
osdmap e4055: 14 osds: 14 up, 14 in
pgmap v8073416: 1920 pgs, 6 pools, 16777 GB data, 4196 kobjects
33702 GB used, 5371 GB / 39074 GB avail
それぞれ5 TBの4つのブロックデバイスを作成しました。
df -h
/dev/rbd1 5.0T 2.7T 2.4T 54% /mnt/part1
/dev/rbd2 5.0T 2.7T 2.4T 53% /mnt/part2
/dev/rbd3 5.0T 2.6T 2.5T 52% /mnt/part3
/dev/rbd4 5.0T 2.9T 2.2T 57% /mnt/part4
dfは合計で10.9 TBが使用されていることを示し、cephは33702 GBが使用されていることを示しています。2つのコピーがある場合、それは約22 TBでなければなりませんが、今では33,7 TBが使用されています-11 TBが不足しています。
ceph osd pool get archyvas size
size: 2
ceph df
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
39074G 5326G 33747G 86.37
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
data 0 0 0 1840G 0
metadata 1 0 0 1840G 0
archyvas 3 4158G 10.64 1840G 1065104
archyvas2 4 4205G 10.76 1840G 1077119
archyvas3 5 3931G 10.06 1840G 1006920
archyvas4 6 4483G 11.47 1840G 1148291
ブロックデバイスとOSD FS-XFS