메뉴 닫기

ceph osd 사용중 osd 서버를 다시 설치할 경우 error

[cloudv-osd-E][WARNIN] Invalid partition data!
[cloudv-osd-E][DEBUG ] GPT data structures destroyed! You may now partition the disk using fdisk or
[cloudv-osd-E][DEBUG ] other utilities.
[cloudv-osd-E][WARNIN] ceph-disk: Error: Command ‘[‘/sbin/sgdisk’, ‘–zap-all’, ‘–‘, ‘/dev/sdo’]’ returned non-zero exit status 2
[cloudv-osd-E][ERROR ] RuntimeError: command returned non-zero exit status: 1
[ceph_deploy][ERROR ] RuntimeError: Failed to execute command: /usr/sbin/ceph-disk zap /dev/sdo

위의 ERROR은

ceph-deploy disk zap cloudv-osd-E:sdo 의 설치 단계 진행시 나왔던 메시지이다.
이는 신규 서버에서 나올 수 있는 ERROR 은 아니고, 이전에 사용했던 것에 재설치 진행시 나올 수 있는 메시지이다.
기존 사용하던 OSD HDD를 그대로 사용시 문제되지는 않으나 기존 HDD를 OSD가 사용하는 포멧인 XFS가 아닌 EXT4 EXT3 등으로
포멧했을 경우 MGMT 서버에서 “ceph-deploy disk zap”진행시 즉 OSD HDD를 XFS로 포멧할시 자신이 사용하고자 하는
포멧과 맞지 않아 나오는 오류로 XFS가 아닌 다른 포멧방식으로 디스크를 포멧했다면 XFS로 모두 다시 해주어야 한다.
이외에 다른 방법은 다음과 같다.
1.디스크 초기화

dd if=/dev/zero of=/dev/sdd bs=512 count=1
mkfs.xfs /dev/sdd ( 본 필자의 osd 포멧은 xfs로 이와 같이 진행 했으며, 테스터의 포멧 환경에 따라 달리 해주어도 된다.)

이후 바로 진행 하면 위와 같은 오류 혹은 두번씩 진행해야 하므로 osd 서버를 한번 리부팅 해주어라.

2.ceph-deploy disk zap 를 한번 더 진행.
(처음진행시 위와 같은 ERROR 메시지를 출력하지만 같은 디스크를 두번째 했을 경우 정상적으로 진행됨.)

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x