Cara Menghapus OSD [Manual]

Panduan Hentikan servis jika masih berjalan sudo systemctl stop ceph-osd@<id> Atur state OSD sebagai down dan out ceph osd out <id> ceph osd down <id> Hapus OSD dari klaster ceph # Hapus auth ceph auth rm osd.<osd_id> # Hapus dari CRUSH Map ceph osd crush remove osd.<osd_id> # Hapus dari OSD Map ceph osd rm <osd_id> Zap disk # ceph-volume lvm zap <device_path> --destroy ceph-volume lvm zap /dev/sdX --destroy Solusi (Workaround) Tidak bisa menjalankan ceph-volume lvm destroy Catat informasi mengenai OSD yang ingin dihapus block osd_id ceph-volume lvm list Format Disk menggunakan wipefs wipefs -fa <device_path> Hapus LVM jika masih ada # Lihat device mapper dmsetup ls # Hapus device mapper OSD yang ingin dihapus dmsetup remove <device_map> Zap disk # ceph-volume lvm zap <device_path> --destroy ceph-volume lvm zap /dev/sdX --destroy Referensi Ceph Docs - ceph-volume ZAP The Geek Diary - dmsetup

September 5, 2021 · 1 min · Aji Arya

Cara Mengubah Device Class OSD

Pendahuluan Device Class berguna untuk mempermudah ceph untuk mendistribusikan data berdasarkan device class yang telah ditentukan didalam CRUSH Rule Panduan Hapus class default yang didapatkan ketika membuat OSD ceph osd crush rm-device-class <osd_id> Berikan class baru pada OSD yang diinginkan ceph osd crush set-device-class performance $i Contoh memanfaatkan device class # Buat CRUSH rule # Contoh: # ceph osd crush rule create-replicated <rule-name> <root> <failure-domain> <class> ceph osd crush rule create-replicated replicated-performance default host performance # Buat pool ceph osd pool create performance-pool 32 32 replicated replicated-performance Referensi Ceph News - Crush Device Classes

September 5, 2021 · 1 min · Aji Arya

Cara Menyiapkan Nextcloud Dengan Let's Encrypt

Panduan Pasang snap (Jika belum tersedia) Debian Based sudo apt install -y snapd RHEL Based sudo yum install -y epel-release sudo yum install -y snapd # atau sudo dnf install -y epel-release sudo dnf install -y snapd sudo systemctl enable --now snapd.socket sudo ln -s /var/lib/snapd/snap /snap Pasang Nextcloud melalui snapd sudo snap install nextcloud Konfigurasi Akun administratif sudo nextcloud....

September 5, 2021 · 1 min · Aji Arya

Memilih Deployment Tool Ceph

Panduan Rekomendasi cephadm (Container) cephadm tersedia sejak versi v15.2.0 (Octopus). cephadm mendeploy servis-servis Ceph dalam bentuk container, dengan cephadm mempermudah untuk memanajemen klaster seperti menambahkan, menghapuskan, atau memperbarui komponen Ceph. cephadm mendukung docker dan podman sebagai container runtime. Rook (Container / Manage by Kubernetes) Rook tersedia sejak versi Nautilus. Rook men-deploy dan melakukan manajemen klaster Ceph yang berjalan didalam Kubernetes. Jika ingin menggunakan Ceph sebagai storage untuk klaster Kubernetes, Rook adalah tool cocok digunakan....

September 5, 2021 · 1 min · Aji Arya

Cara Menghitung Jumlah PG Untuk Klaster Ceph

Prasyarat Klaster Ceph Pendahuluan Ceph Placement Groups (PGs) adalah implementasi internal yang dilakukan oleh Ceph untuk melakukan distribusi data Mapping PG pada Pool Gambaran Pool yang menggunakan replikasi dengan nilai 2 Sumber Gambar: https://docs.ceph.com/en/latest/rados/operations/placement-groups/ Panduan Gunakan perhitungan 50-100 PG untuk 1 OSD Hitung jumlah OSD pada klaster Jumlah Replikasi yang diinginkan Gunakan Kalkulator PG PGCalc Contoh Klaster Ceph untuk servis OpenStack Klaster memiliki 100 OSD dengan ukuran 1 TB setiap OSD (100 TB Total) Target 100 PG untuk 1 OSD Replikasi data sebanyak 3 (Size) Alokasi pool cinder-backup 25% (25 TB) cinder-volumes 53% (53 TB) ephemeral-vms 15% (15 TB) glance-vms 7% (7 TB) Pool Name: Nama Pool Size: Ukuran replikasi atau EC (K+M) OSD: Jumlah OSD untuk pool tersebut (Berdasarkan OSD device class untuk pool) Target PGs Per OSD: Target PG untuk 1 OSD (Rekomendasi 50-100 PG) Suggested PG Count: Saran PG merupakan kelipatan 2, Jumlah PG untuk pool Referensi Ceph Docs - Placement Groups

September 4, 2021 · 1 min · Aji Arya