performance 4

Ceph Storage Block Device 성능 테스트 방법 (RBD Benchmark)

Ceph Storage의 Block Device (RBD) 에 대한 성능 테스트 방법입니다.  1. pool 생성rbd을 지원하는 pool 생성 또는 기존 pool에 rbd 타입을 추가한다.  2. pool 에 image 생성 3. image 쓰기 성능 테스트 [ceph: root@cnode1 /]# rbd bench --io-type write image01 --pool=testbenchbench type write io_size 4096 io_threads 16 bytes 1073741824 pattern sequential SEC OPS OPS/SEC BYTES/SEC 1 6256 4850.97 19 MiB/s 2 6448 3178.13..

Ceph Storage 기본 성능 테스트 방법 (Benchmark)

Ceph storage에 대한 기본적인 성능 테스트에 대해서 확인해 보도록 합니다. Ceph storage는 rados becnh 라는  벤치마크 툴을 기본적으로 제공하고 있습니다. 읽기와 쓰기에 대한 성능 테스트 방법에 대하여 소개하도록 하겠습니다.  모든 파일 시스템 cache 삭제[ceph: root@cnode1 /]# echo 3 | sudo tee /proc/sys/vm/drop_caches && sudo sync3 테스트 pool 생성 (testbench)[ceph: root@cnode1 /]# ceph osd pool create testbench 100 100pool 'testbench' created dashboard 에서 testbench pool 생성 확인이 가능하다.  1. pool..

Linux TuneD 이용한 성능 최적화

시스템 성능을 위해서 여러가지 방법을 사용하여 튜닝을 진행할 수 있습니다. 이번에는 TuneD 을 이용하여 다양한 환경에 대한 최적화 방법에 대해 알아보겠습니다. 본 시스템은 Rocky Linux 8.8 기반으로 작성되었습니다. TuneD는 다양한 종류의 profile을 제공하고 있습니다. 설치되어 있는 서비스 마다 지원하는 profile 목록이 다르니 command을 통하여 지원 목록을 확인할 수 있으며, 새롭게 커스터마이징 하여 생성 및 적용이 가능합니다. 1. Profile 종류 Type Description accelerator-performance Throughput-performance 프로필과 동일한 튜닝으로 대기 시간 100us 미만이 되도록 CPU가 낮은 C Status로 머무르게 한다...

Linux & Development 2024.04.04

Ceph Reef 성능 테스트 (RBD)

본 내용은 Ceph Blog에 OSD 성능 테스트 내용을 간략화 하였습니다. https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/ Ceph Reef - 1 or 2 OSDs per NVMe? - Ceph Hello Ceph community! It's time again for another blog post! One of the most common questions we've gotten over the years is whether or not users should deploy multiple OSDs per flash drive. This topic is especially complicated because our advice has chang cep..