ceph 14

IBM Ceph storage Appliance (Ready Node)

IBM 에서 Ceph Storage 을 이용한 Appliance 장비가 출시되었습니다. 두가지 종류의 Node 타입을 제공되고 있으며 사용 용도에 따라 선택적으로 사용 가능합니다. 하드웨어 장비 스펙 및 이미지를 선택하시는데 참고하시기 바랍니다.  Specifications Storage Ceph NodeStorage Ceph NVMe Flash NodeProcessorIntel Xeon Silver 4313Intel Xeon Gold 6438N# of Processors22RAM256GB512GBOS Disks2 x 240GB Raid 1 SSD2 x 480GB Raid 1 SSDData Acceleration Disks2 X 3.84TB SSDN/ARack Height2U2UWidth482 mm (1..

Ceph OSD 드라이브 교체

Ceph 은 구조적으로 Disk 결함이 발생하여도 데이터를 유실되지 않고 성능 저하 상태에서 동작할 수 있습니다. 장애가 발생한 드라이브의 데이터를 자동으로 다은 OSD에 저장된 데이터의 추가 사본을 클러스터의 다른 OSD로 자동으로 백필(backfill) 됩니다. 이러할 경우, 결함 OSD 드라이브를 교체하고 OSD를 수동으로 교체합니다.  1. Ceph 클러스터에서 OSD 제거1.1. cephadm shell 로그인 [root@host01 ~]# cephadm shell 1.2 장애 OSD 확인[ceph: root@host01 /]# ceph osd tree | grep -i downID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF..

Ceph Storage 하드웨어 최소 사양

Ceph을 소규모 클러스터 및 개발 클러스터로 사용하기위한 최소 사양에 대하여 알아보도록 하겠습니다. 다음은 하드웨어 최소 사양이므로 성능에 대해 고려하지 않았습니다. 각각의 용도에 따라 하드웨어 요구사항이 나뉘게 되며 다음을 참고하기 최소로 구성할 때 참고하시기 바랍니다. IBM Ceph Storage 5, 6, 7 / Community 16.2.x, 17.2.x, 18.2.x 모두 동일한 최소 사양을 가이드하고 있습니다. MON (ceph-mon-container) processor : 1 x AMD64 or Intel 64 CPU CORE per mon-container RAM : 3 GB per mon-container Disk space : 10 GB per mon-container, 50 GB..

Ceph Storage Block Device 성능 테스트 방법 (RBD Benchmark)

Ceph Storage의 Block Device (RBD) 에 대한 성능 테스트 방법입니다.  1. pool 생성rbd을 지원하는 pool 생성 또는 기존 pool에 rbd 타입을 추가한다.  2. pool 에 image 생성 3. image 쓰기 성능 테스트 [ceph: root@cnode1 /]# rbd bench --io-type write image01 --pool=testbenchbench type write io_size 4096 io_threads 16 bytes 1073741824 pattern sequential SEC OPS OPS/SEC BYTES/SEC 1 6256 4850.97 19 MiB/s 2 6448 3178.13..

Ceph Storage 기본 성능 테스트 방법 (Benchmark)

Ceph storage에 대한 기본적인 성능 테스트에 대해서 확인해 보도록 합니다. Ceph storage는 rados becnh 라는  벤치마크 툴을 기본적으로 제공하고 있습니다. 읽기와 쓰기에 대한 성능 테스트 방법에 대하여 소개하도록 하겠습니다.  모든 파일 시스템 cache 삭제[ceph: root@cnode1 /]# echo 3 | sudo tee /proc/sys/vm/drop_caches && sudo sync3 테스트 pool 생성 (testbench)[ceph: root@cnode1 /]# ceph osd pool create testbench 100 100pool 'testbench' created dashboard 에서 testbench pool 생성 확인이 가능하다.  1. pool..

IBM Storage Ceph S3-Select 벤치마크 (Trino을 사용한 TPC-DS)

다음은 IBM Storage Ceph Object S3-Select 기능을 활성화 하여 Trino 에서 수행한 벤치마트 테스트 결과에 대한 내용입니다. 1TB 와 3TB 기준TPC-DS 벤치 마크 쿼리를 사용하여 진행되었으며 평균 2.5배 성능이 향상되었으며 S3-Select 기능을 비활성화 하였을 때 보다 네트워크 데이터 처리량이 144TB 감소하여 최대 9배 이상 향상된 것을 볼 수 있었습니다. Trino 란? 사용자가 단일 SQL 문을 사용하여 여러 소스의 데이터를 쿼리할 수 있는 분산 SQL 쿼리 엔진입니다. 테스트 방법 다양한 테스트를 위하여 1TB, 2TB, 3TB 세 가지 스케일 팩터에서 72개의 TPC-DS쿼리 를 실행하여 테스트를 진행하였습니다. 데이터는 압축되지 않은 CSV 형식으로 진..

IBM Ceph Storage 7.0 - NVMe over TCP Gateway (Tech Preview)

IBM Storage Ceph 7.0 에서 개선 사항 중, 하나인 NVMe over TCP Storage Gateway에 대한 추가 및 설정 방법에 대하여 알아보도록 하겠습니다. 다음 내용은 Tech Preview Code 로 참고만 하시는게 좋을 것 같습니다. NVMe over TCP 는 데이터 센터에서 사용되는 고대역폭, 저지연 광 네트워크를 활용하여 NVMe 드라이브의 성능 및 집약도, 병렬성을 확보하도록하는 네트워크 전송 기반 스토리지 프로토콜 입니다. 이러한 방식을 이용하여 증가하고 있는 대규모의 데이터 센터, 컨테이터 및 가상 머신에 대하여 효율적인 고성능 솔루션을 제공할 수 있습니다. NVMe Gateway 서비스와 리스너를 구성하여 NVMe namespace를 Ceph RBD 이미지와 연결..

Ceph Reef 성능 테스트 (RBD)

본 내용은 Ceph Blog에 OSD 성능 테스트 내용을 간략화 하였습니다. https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/ Ceph Reef - 1 or 2 OSDs per NVMe? - Ceph Hello Ceph community! It's time again for another blog post! One of the most common questions we've gotten over the years is whether or not users should deploy multiple OSDs per flash drive. This topic is especially complicated because our advice has chang cep..

ARA S3 Drive 서비스 오픈

안녕하세요. 대한씨앤아이 입니다. ARA S3 Drive 서비스를 오픈하게 되었습니다. 휴대폰 및 태블릿의 데이터를 저장 및 백업을 지원해 드립니다. Ceph Storage 의 3중 복재를 통한 데이터 보호 및 Object 분산 방식을 통한 빠른 업/다운 로드를 지원하고 있습니다. 계속적인 업그레드를 통하여 보다 좋은 서비스를 지원해 드리도록 하겠습니다. http://araspace.co.kr ARA S3 Drive - 모든 콘텐츠에 대한 저장 및 백업 Download App Now ARA S3 드라이브는 안드로이드 및 iOS 용 핸드폰 및 휴대기기에서 원활하게 사용할 수 있습니다. araspace.co.kr

카테고리 없음 2021.09.20

CEPH-Cluster 확장을 위한 이유와 시기에 대한 고찰

백엔드 스토리지 제품 중, CEPH은 스토리지 확장이 필요한 시점이 도달했을 때 매우 우수한 기능을 제공하고 있습니다. 초기 설정 때의 풀(Poll) 구조와 복제 크기에 따라 백엔드 스토리지를 결정이 매우 중요한 요소가 되지만 CEPH은 추가적으로 확장에 매우 용이한 기능을 제공하고 있습니다. 새로운 하드웨어 스토리지 노드를 설치 및 설정, 구성이 되면 CEPH에 새 노드를 위한 클러스터에 추가하도록 명령만 내리면 됩니다. 이러한 동작을 통하여 자동적으로 데이터는 새로운 노드에 분산되어 동작하게 됩니다. CEPH 클러스터의 하드웨어 성능의 경우, 서로 간에 유사성을 띄고 있어야 합니다. 클러스터의 속도는 클러스터 구성원 중 가장 느린 구성원을 기준으로 결정됨으로 하드웨어 추가 시, 원래 설정과 유사한 하..