Cara Menghapus OSD [Manual]

Panduan Hentikan servis jika masih berjalan sudo systemctl stop ceph-osd@<id> Atur state OSD sebagai down dan out ceph osd out <id> ceph osd down <id> Hapus OSD dari klaster ceph # Hapus auth ceph auth rm osd.<osd_id> # Hapus dari CRUSH Map ceph osd crush remove osd.<osd_id> # Hapus dari OSD Map ceph osd rm <osd_id> Zap disk # ceph-volume lvm zap <device_path> --destroy ceph-volume lvm zap /dev/sdX --destroy Solusi (Workaround) Tidak bisa menjalankan ceph-volume lvm destroy Catat informasi mengenai OSD yang ingin dihapus block osd_id ceph-volume lvm list Format Disk menggunakan wipefs wipefs -fa <device_path> Hapus LVM jika masih ada # Lihat device mapper dmsetup ls # Hapus device mapper OSD yang ingin dihapus dmsetup remove <device_map> Zap disk # ceph-volume lvm zap <device_path> --destroy ceph-volume lvm zap /dev/sdX --destroy Referensi Ceph Docs - ceph-volume ZAP The Geek Diary - dmsetup

September 5, 2021 · 1 min · Aji Arya

Cara Mengubah Device Class OSD

Pendahuluan Device Class berguna untuk mempermudah ceph untuk mendistribusikan data berdasarkan device class yang telah ditentukan didalam CRUSH Rule Panduan Hapus class default yang didapatkan ketika membuat OSD ceph osd crush rm-device-class <osd_id> Berikan class baru pada OSD yang diinginkan ceph osd crush set-device-class performance $i Contoh memanfaatkan device class # Buat CRUSH rule # Contoh: # ceph osd crush rule create-replicated <rule-name> <root> <failure-domain> <class> ceph osd crush rule create-replicated replicated-performance default host performance # Buat pool ceph osd pool create performance-pool 32 32 replicated replicated-performance Referensi Ceph News - Crush Device Classes

September 5, 2021 · 1 min · Aji Arya

Cara Menyiapkan Nextcloud Dengan Let's Encrypt

Panduan Pasang snap (Jika belum tersedia) Debian Based sudo apt install -y snapd RHEL Based sudo yum install -y epel-release sudo yum install -y snapd # atau sudo dnf install -y epel-release sudo dnf install -y snapd sudo systemctl enable --now snapd.socket sudo ln -s /var/lib/snapd/snap /snap Pasang Nextcloud melalui snapd sudo snap install nextcloud Konfigurasi Akun administratif sudo nextcloud.manual-install <username> <password> Konfigurasi nama domain # sudo nextcloud.occ config:system:set trusted_domains 1 --value=<alamat_domain> sudo nextcloud.occ config:system:set trusted_domains 1 --value=contoh.com Generate SSL menggunakan Let’s Encrypt sudo nextcloud.enable-https lets-encrypt # Verifikasi sudo nextcloud.occ config:system:get trusted_domainsc Buka firewall ...

September 5, 2021 · 1 min · Aji Arya

Memilih Deployment Tool Ceph

Panduan Rekomendasi cephadm (Container) cephadm tersedia sejak versi v15.2.0 (Octopus). cephadm mendeploy servis-servis Ceph dalam bentuk container, dengan cephadm mempermudah untuk memanajemen klaster seperti menambahkan, menghapuskan, atau memperbarui komponen Ceph. cephadm mendukung docker dan podman sebagai container runtime. Rook (Container / Manage by Kubernetes) Rook tersedia sejak versi Nautilus. Rook men-deploy dan melakukan manajemen klaster Ceph yang berjalan didalam Kubernetes. Jika ingin menggunakan Ceph sebagai storage untuk klaster Kubernetes, Rook adalah tool cocok digunakan. ...

September 5, 2021 · 1 min · Aji Arya

Cara Menghitung Jumlah PG Untuk Klaster Ceph

Prasyarat Klaster Ceph Pendahuluan Ceph Placement Groups (PGs) adalah implementasi internal yang dilakukan oleh Ceph untuk melakukan distribusi data Mapping PG pada Pool Gambaran Pool yang menggunakan replikasi dengan nilai 2 Sumber Gambar: https://docs.ceph.com/en/latest/rados/operations/placement-groups/ Panduan Gunakan perhitungan 50-100 PG untuk 1 OSD Hitung jumlah OSD pada klaster Jumlah Replikasi yang diinginkan Gunakan Kalkulator PG PGCalc Contoh Klaster Ceph untuk servis OpenStack Klaster memiliki 100 OSD dengan ukuran 1 TB setiap OSD (100 TB Total) Target 100 PG untuk 1 OSD Replikasi data sebanyak 3 (Size) Alokasi pool cinder-backup 25% (25 TB) cinder-volumes 53% (53 TB) ephemeral-vms 15% (15 TB) glance-vms 7% (7 TB) ...

September 4, 2021 · 1 min · Aji Arya

Cara Menyiapkan ISCSI Initiator (Linux)

Panduan Install package open-iscsi Debian Based sudo apt install -y open-iscsi RHEL Based sudo dnf install -y iscsi-initiator-utils # atau sudo yum install -y iscsi-initiator-utils Konfigurasi IQN initiator sudo vim /etc/iscsi/initiatorname.iscsi Tambahkan baris berikut InitiatorName=iqn.2021-08.aa-lio-initiator:lio.initiator01 Konfigurasi iscsi initiator sudo vim /etc/iscsi/iscsid.conf Sesuaikan baris berikut node.session.auth.authmethod = CHAP node.session.auth.username = <user> node.session.auth.password = <password> Restart servis iscsi Debian Based sudo systemctl restart iscsid open-iscsi RHEL Based sudo systemctl restart iscsid Discover target sudo iscsiadm -m discovery -t sendtargets -p <ip_iscsi_target> Masuk iSCSI target (Login) sudo iscsiadm -m node --login Verifikasi sudo iscsiadm -m session -o show Referensi Server World - iSCSI Initiator (Debian 11) Server World - iSCSI Initiator (CentOS 8)

September 4, 2021 · 1 min · Aji Arya

Cara Menyiapkan ISCSI Target - targetcli (Linux)

Pendahuluan iSCSI Target adalah server yang memiliki sumber daya penyimpanan dan penyimpanan tersebut bisa bisa digunakan oleh iSCSI Initiator targetcli adalah tool manajemen LIO (Linux IO). Panduan Install package targetcli Debian Distribution sudo apt install -y targetcli-fb RHEL Distribution sudo dnf install -y targetcli # atau sudo yum install -y targetcli Buat backstore backstore adalah sumber daya penyimpanan yang akan disediakan dan bisa gunakan oleh iSCSI Initiator. Kita bisa gunakan fileio untuk backstore yang berupa file ataupun block untuk backstore yang berupa device. ...

September 4, 2021 · 2 min · Aji Arya

Cara Stop atau Pause Klaster Ceph

Pendahuluan Saat kita ingin melakukan Maintenance atau Mematikan server sebaiknya kita menghentikan atau menjeda klaster Ceph yang sedang berjalan Panduan Menghentikan atau melakukan pause klaster ceph osd set noout ceph osd set norecover ceph osd set norebalance ceph osd set nobackfill ceph osd set nodown ceph osd set pause Menjalankan atau menghentikan pause klaster ceph osd unset noout ceph osd unset norecover ceph osd unset norebalance ceph osd unset nobackfill ceph osd unset nodown ceph osd unset pause Referensi Red Hat Ceph Storage 3 - 2.6. Step No. 4 Manual Ceph Command Ceph OSD Map Flags

September 4, 2021 · 1 min · Aji Arya

Cara Setup OpenStack Magnum Dengan Deployment Kolla-Ansible [Kubernetes COE]

Lingkungan Sistem Operasi: CentOS 8 OpenStack: Ussuri Kolla-Ansible: 10.3.0 Kubernetes Image: Fedora CoreOS 32 Panduan Install Dependensi sudo dnf install -y python3-devel libffi-devel gcc openssl-devel python3-libselinux Siapkan python3 virtual environment python3 -m venv kolla source kolla/bin/activate Upgrade package pip pip install -U pip Install kolla-ansible & ansible pip install 'ansible<2.10' kolla-ansible==10.3.0 Buat direktori /etc/kolla sudo mkdir -p /etc/kolla sudo chown $USER:$USER /etc/kolla Salin globals.yml dan password.yml ke direktori /etc/kolla cp -r kolla/share/kolla-ansible/etc_examples/kolla/* /etc/kolla Salin all-in-one file inventory ke direktori sekarang cp kolla/share/kolla-ansible/ansible/inventory/multinode . Konfigurasi ansible sudo mkdir /etc/ansible sudo bash -c 'cat<<EOF > /etc/ansible/ansible.cfg [defaults] host_key_checking=False pipelining=True forks=100 EOF' Generate password openstack kolla-genpwd Sunting globals.yml cat<<EOF > /etc/kolla/globals.yml kolla_base_distro: "centos" kolla_install_type: "binary" openstack_release: "ussuri" kolla_internal_vip_address: "10.10.100.6" kolla_external_vip_address: "10.10.100.7" network_interface: "eth0" neutron_external_interface: "eth1" enable_openstack_core: "yes" enable_cinder: "yes" enable_cinder_backup: "no" enable_magnum: "yes" enable_cluster_user_trust: true enable_cinder_backend_lvm: "yes" enable_neutron_provider_networks: "yes" nova_compute_virt_type: "kvm" EOF Buat LVM untuk OpenStack Cinder sudo dnf install -y lvm2 sudo pvcreate /dev/vdb sudo vgcreate cinder-volumes /dev/vdb Deploy OpenStack Kolla sudo dnf install -y epel-release sudo dnf install -y screen screen -R kolla kolla-ansible -i all-in-one bootstrap-servers kolla-ansible -i all-in-one prechecks kolla-ansible -i all-in-one deploy kolla-ansible -i all-in-one post-deploy Install openstack client source kolla/bin/activate pip install python-openstackclient python-magnumclient python-heatclient Buat flavor untuk instance magnum source /etc/kolla/admin-openrc.sh sudo chown $USER:$USER /etc/kolla/admin-openrc.sh openstack flavor create m0-kubernetes --disk 20 --vcpu 4 --ram 4096 --public Unduh dan ekstrak image Fedora CoreOS 32 sudo dnf install -y wget wget https://builds.coreos.fedoraproject.org/prod/streams/stable/builds/32.20200629.3.0/x86_64/fedora-coreos-32.20200629.3.0-openstack.x86_64.qcow2.xz unxz fedora-coreos-32.20200629.3.0-openstack.x86_64.qcow2.xz Unggah image ke OpenStack Glance openstack image create \ --file fedora-coreos-32.20200629.3.0-openstack.x86_64.qcow2 \ --disk-format qcow2 \ --container-format=bare \ --property os_distro=fedora-coreos \ --property os_admin_user=core \ --public \ Fedora-CoreOS-32 Buat template klaster openstack coe cluster template create k8s-btech-bicara \ --image Fedora-CoreOS-32 \ --external-network public1 \ --dns-nameserver 8.8.8.8 \ --flavor m0-kubernetes \ --master-flavor m0-kubernetes \ --docker-volume-size 5 \ --network-driver flannel \ --coe kubernetes \ --volume-driver cinder Buat klaster Kubernetes openstack coe cluster create k8s-cluster-btech-bicara --keypair mykey \ --cluster-template k8s-btech-bicara \ --labels keystone_auth_enabled=true,kube_tag=v1.18.6,cloud_provider_enabled=true,cinder_csi_enabled=true,cinder_csi_plugin_tag=v1.18.0

August 30, 2021 · 2 min · Aji Arya

Cara Deploy Ceph Dashboard Pada Deployment Manual

Prasyarat Klaster Ceph Panduan Install package ceph-mgr-dashboard pada semua host ceph-mgr Debian/Ubuntu sudo apt install -y ceph-mgr-dashboard RHEL/CentOS/Rocky 8 sudo dnf install -y ceph-mgr-dashboard RHEL/CentOS/Rocky 7 sudo yum install -y ceph-mgr-dashboard Aktifkan module dashboard pada ceph-mgr ceph mgr module enable dashboard Buat TLS untuk ceph dashboard ceph dashboard create-self-signed-cert Buat user echo "rahasia123" > password.txt ceph dashboard ac-user-create admin -i password.txt administrator Login ceph dashboard URL: https://<alamat_ceph-mgr>:8443

August 29, 2021 · 1 min · Aji Arya