초기 설치 후, Ceph 클러스터가 일반적으로 상태를 보고함- 메시지 출력.
(예를 들어, 클라이언트가 액세스 할 수 있도록) 스토리지 클러스터를 사용하기 전에, HEALTH_OK 상태에 도달해야만 한다.
cluster-admin@ceph-mon0:~/ceph-cluster$ ceph health
HEALTH_OK
이 부분은 배포된 것을 설치하는 동안 수집 된 일부의 문제 해결 힌트를 제공.
기타 유용한 리소스는 가능한 Ceph IRC 채널과 메일 링리스트임.
*유용한 진단 명령
명령을 실행시 Ceph 클러스터가 제대로 구성되지 않았음을 확인할 수있는 방법.
1.Ceph status
[ceph@~]$ ceph status
In this example, the disk for one OSD had been physically removed, so 2 out of 3 OSDs were in and up.
cluster-admin@ceph-mon0:~/ceph-cluster$ ceph status
cluster 28f9315e-6c5b-4cdc-9b2e-362e9ecf3509
health HEALTH_OK
monmap e1: 1 mons at {ceph-mon0=192.168.0.1:6789/0}, election epoch 1, quorum 0 ceph-mon0
osdmap e122: 3 osds: 2 up, 2 in
pgmap v4699: 192 pgs, 3 pools, 0 bytes data, 0 objects
87692 kB used, 1862 GB / 1862 GB avail
192 active+clean
2.Ceph health
[ceph@~]$$ ceph health
[ceph@~]$$ ceph health detail
3.Pools and OSDs configuration and status
[ceph@~]$$ ceph osd dump
[ceph@~]$$ ceph osd dump –format=json-pretty
the second version provides much more information, listing all the pools and OSDs and their configuration parameters
4.Tree of OSDs reflecting the CRUSH map
[ceph@~]$$ ceph osd tree
This is very useful to understand how the cluster is physically organized (e.g., which OSDs are running on which host).
5.Listing the pools in the cluster
[ceph@~]$$ ceph osd lspools
This is particularly useful to check clients operations (e.g., if new pools were created).
6.Check the CRUSH rules
[ceph@~]$$ ceph osd crush dump –format=json-pretty
7.List the disks of one node from the admin node
[ceph@~]$$ ceph-deploy disk list osd0
방화벽 및 네트워크 구성을 확인
가능한 Ceph 클러스터의 모든 노드가 성공적으로 실행할 수 있어야함
$ ceph status
일반적으로 가능한 Ceph 클러스터는 다음 포트를 사용해야 할 수도 있다
Mon: 6789
Mds: 6800
Osd1: 6801
Osd2: 6802
Osd3: 6803
Depending on your security requirements, you may want to simply allow any traffic to and from the Ceph cluster nodes.