OSD 3

Ceph OSD 드라이브 교체

Ceph 은 구조적으로 Disk 결함이 발생하여도 데이터를 유실되지 않고 성능 저하 상태에서 동작할 수 있습니다. 장애가 발생한 드라이브의 데이터를 자동으로 다은 OSD에 저장된 데이터의 추가 사본을 클러스터의 다른 OSD로 자동으로 백필(backfill) 됩니다. 이러할 경우, 결함 OSD 드라이브를 교체하고 OSD를 수동으로 교체합니다.  1. Ceph 클러스터에서 OSD 제거1.1. cephadm shell 로그인 [root@host01 ~]# cephadm shell 1.2 장애 OSD 확인[ceph: root@host01 /]# ceph osd tree | grep -i downID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF..

Ceph Storage 하드웨어 최소 사양

Ceph을 소규모 클러스터 및 개발 클러스터로 사용하기위한 최소 사양에 대하여 알아보도록 하겠습니다. 다음은 하드웨어 최소 사양이므로 성능에 대해 고려하지 않았습니다. 각각의 용도에 따라 하드웨어 요구사항이 나뉘게 되며 다음을 참고하기 최소로 구성할 때 참고하시기 바랍니다. IBM Ceph Storage 5, 6, 7 / Community 16.2.x, 17.2.x, 18.2.x 모두 동일한 최소 사양을 가이드하고 있습니다. MON (ceph-mon-container) processor : 1 x AMD64 or Intel 64 CPU CORE per mon-container RAM : 3 GB per mon-container Disk space : 10 GB per mon-container, 50 GB..

Ceph Reef 성능 테스트 (RBD)

본 내용은 Ceph Blog에 OSD 성능 테스트 내용을 간략화 하였습니다. https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/ Ceph Reef - 1 or 2 OSDs per NVMe? - Ceph Hello Ceph community! It's time again for another blog post! One of the most common questions we've gotten over the years is whether or not users should deploy multiple OSDs per flash drive. This topic is especially complicated because our advice has chang cep..