当我们ceph集群使用一段时间后,如何统计ceph的具体使用量呢
ceph版本:Jewel
ceph 使用总量(包括3备份的统计)
ceph osd df
SIZE USE AVAIL %USE
.........................
TOTAL 116T 12455G 104T 10.45
单个存储池的使用量(没有包括备份数据)
rbd du --pool vms
NAME PROVISIONED USED
...........................................................
fccd4355-aaae-436a-a74f-26e261f8612e_disk 500G 2920M
fd99fe61-15fb-40f3-a151-af64b8549eb6_disk 500G 7236M
fe0233ad-ca87-4b5f-8093-cf0fa56a5cf7_disk 500G 1776M
<TOTAL> 112T 2892G
总共分配了112T空间,使用了2892G空间
单个镜像的大小
rbd info vms/******************_disk ##vms是池名称
rbd image '0001bc23-acec-432e-b5fc-2be6d4e2c173_disk':
size 500 GB in 128000 objects
order 22 (4096 kB objects)
block_name_prefix: rbd_data.199978fc6d0b3
format: 2
features: layering, exclusive-lock, object-map, fast-diff, deep-flatten
flags:
parent: images/5904383f-a30e-4964-b338-0c9a981b133e@snap
overlap: 10240 MB
大小为500G,父镜像大小:10240MB