it-wiki:proxmox:cephcluster
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| it-wiki:proxmox:cephcluster [2019/07/22 17:43] – [CEPH OSD Volume neu anlegen] marko | it-wiki:proxmox:cephcluster [2023/02/11 07:26] (aktuell) – [RBD Objekt Map] marko | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| ====== CEPH Cluster ====== | ====== CEPH Cluster ====== | ||
| + | ===== CEPH OSD Volume neu anlegen ===== | ||
| + | Über das Webinterface das OSD Volume in den out Modus schicken damit die Daten kopiert werden. Danach: | ||
| + | <code bash> | ||
| + | systemctl stop ceph-osd@< | ||
| + | umount / | ||
| + | rm -r / | ||
| + | ceph osd crush reweight osd.< | ||
| + | ceph osd crush remove osd.< | ||
| + | ceph auth del osd.< | ||
| + | ceph osd rm <id> | ||
| + | ceph-volume lvm create --data /dev/sdXX | ||
| + | </ | ||
| + | \\ | ||
| + | \\ | ||
| ===== PROXMOX/ | ===== PROXMOX/ | ||
| Zeile 17: | Zeile 31: | ||
| Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei / | Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei / | ||
| - | < | + | < |
| $devname =~ s|/dev/||; | $devname =~ s|/dev/||; | ||
| </ | </ | ||
| und kommentieren diese und die folgenden Zeilen bis und mit | und kommentieren diese und die folgenden Zeilen bis und mit | ||
| - | < | + | < |
| my $devpath = $diskinfo-> | my $devpath = $diskinfo-> | ||
| </ | </ | ||
| aus. Die letztere ergänzen Sie um | aus. Die letztere ergänzen Sie um | ||
| - | < | + | < |
| my $devpath = $devname; | my $devpath = $devname; | ||
| </ | </ | ||
| Nun suchen Sie nach der Zeile | Nun suchen Sie nach der Zeile | ||
| - | < | + | < |
| my $cmd = [' | my $cmd = [' | ||
| </ | </ | ||
| und entfernen das Argument --zap-disk, so dass die Zeile so aussieht: | und entfernen das Argument --zap-disk, so dass die Zeile so aussieht: | ||
| - | < | + | < |
| my $cmd = [' | my $cmd = [' | ||
| </ | </ | ||
| Zeile 42: | Zeile 56: | ||
| ceph-disk activate /dev/sda4\\ | ceph-disk activate /dev/sda4\\ | ||
| Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen. | Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen. | ||
| + | \\ | ||
| + | \\ | ||
| + | ===== Ceph: manually repair object ===== | ||
| + | === Find the PG === | ||
| + | A simple command can give use the PG: | ||
| - | ===== CEPH OSD Volume neu anlegen ===== | + | ceph health detail |
| - | Über das Webinterface das OSD Volume in den out Modus schicken damit die Daten kopiert werden. Danach: | + | |
| <code bash> | <code bash> | ||
| - | systemctl stop ceph-osd@< | + | root@n1-pve-cluster: |
| - | umount | + | HEALTH_ERR 2 scrub errors; Possible data damage: 2 pgs inconsistent |
| - | ceph osd crush reweight osd.<id> 0.0 | + | OSD_SCRUB_ERRORS 2 scrub errors |
| - | ceph osd crush remove osd.<id> | + | PG_DAMAGED Possible data damage: 2 pgs inconsistent |
| - | ceph auth del osd.<id> | + | pg 15.10 is active+clean+inconsistent, |
| - | ceph osd rm <id> | + | pg 34.61 is active+clean+inconsistent, |
| - | ceph-volume lvm create | + | </ |
| + | |||
| + | ceph pg repair 15.10 | ||
| + | <code bash> | ||
| + | root@n1-pve-cluster: | ||
| + | instructing pg 15.10 on osd.1 to repair | ||
| + | root@n1-pve-cluster: | ||
| + | instructing pg 34.61 on osd.1 to repair | ||
| + | </code> | ||
| + | |||
| + | ===== CEPH Meldungen archivieren ===== | ||
| + | ceph crash archive-all | ||
| + | ceph crash --help | ||
| + | |||
| + | ====== Administration von CEPH ===== | ||
| + | ===== Liste aller Images auf einem Pool ===== | ||
| + | <code bash> | ||
| + | rbd list pool3 | ||
| + | </code> | ||
| + | |||
| + | ===== Snappshots eines Images anzeigen ===== | ||
| + | <code bash> | ||
| + | rbd snap ls pool3/vm-205-disk-0 | ||
| + | </code> | ||
| + | oder | ||
| + | <code bash> | ||
| + | rbd snap list pool1/vm-213-disk-0 | ||
| + | </code> | ||
| + | ===== RBD Snapshot löschen ===== | ||
| + | <code bash> | ||
| + | rbd snap rm pool1/ | ||
| + | </code> | ||
| + | oder | ||
| + | <code bash> | ||
| + | rbd snap rm pool3/ | ||
| + | </code> | ||
| + | ===== RBD Objekt Map ===== | ||
| + | <code bash> | ||
| + | rbd object-map check pool2/vm-213-disk-1 | ||
| + | </code> | ||
| + | Bei Fehlern rebuild machen | ||
| + | <code bash> | ||
| + | rbd object-map rebuild pool2/vm-213-disk-1 | ||
| </ | </ | ||
| + | \\ | ||
| + | \\ | ||
| + | \\ | ||
| + | --- // | ||
it-wiki/proxmox/cephcluster.1563817387.txt.gz · Zuletzt geändert: von marko