Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Auf dieser Seite erfahren Sie, wie Sie lokale Volumes für Google Distributed Cloud-Cluster konfigurieren.
Google Distributed Cloud-Cluster bieten zwei Konfigurationsoptionen für
lokale PVs)
im Cluster: LVP-Freigaben und LVP-Knotenbereitstellungen. Die LVP-Freigabe verwendet Verzeichnisse in einem freigegebenen Dateisystem, während LVP-Knotenbereitstellungen spezielle Laufwerke verwenden.
LVP-Freigabe
Diese Speicherklasse erstellt ein lokales PV mit Unterverzeichnissen in einem lokalen, freigegebenen Dateisystem auf jedem Knoten im Cluster. Diese Unterverzeichnisse werden bei der Clustererstellung automatisch erstellt. Arbeitslasten, die diese Speicherklasse verwenden, teilen sich Kapazität und IOPS, da die PVs vom selben freigegebenen Dateisystem unterstützt werden. Für eine bessere Isolation empfehlen wir, Laufwerke über LVP-Knotenbereitstellungen zu konfigurieren.
LVP-Freigabe konfigurieren
Optional: Stellen Sie vor dem Erstellen des Clusters ein Laufwerk mit dem konfigurierten Pfad als Bereitstellungspunkt bereit, damit die erstellten PVs die neue Laufwerkskapazität freigeben und vom Bootlaufwerk isoliert sind.
Geben Sie Folgendes in der Cluster-Antwortvorlage unter lvpShare an:
path: Der Pfad des Hostcomputers auf jedem Host, in dem Unterverzeichnisse erstellt werden. Für jedes Unterverzeichnis wird ein lokales PV erstellt. Der Standardpfad ist /mnt/localpv-share.
storageClassName: Die Speicherklasse, mit der PVs während der Clustererstellung erstellt werden. Der Standardwert ist local-shared.
numPVUnderSharedPath: Anzahl der Unterverzeichnisse, die unter path erstellt werden sollen.
Der Standardwert ist 5.
PVs werden mit der Speicherklasse erstellt, die in storageClassName angegeben ist. Die Gesamtzahl der lokalen PVs, die im Cluster erstellt wurden, ist numPVUnderSharedPath multipliziert mit der Anzahl der Knoten.
LVP-Knotenbereitstellungen
Mit dieser Speicherklasse wird ein lokales PV für jedes bereitgestellte Laufwerk im konfigurierten Verzeichnis erstellt. Jedes PV entspricht einem Laufwerk mit Kapazität, die der zugrunde liegenden Laufwerkskapazität entspricht. Die Gesamtzahl der lokalen PVs, die im Cluster erstellt wurden, ist die Anzahl der Laufwerke, die unter dem Pfad in allen Knoten bereitgestellt werden. Zusätzliche Bereitstellungen können nach der Clustererstellung hinzugefügt werden.
LVP-Knotenbereitstellungen konfigurieren
Auf Knoten mit zusätzlichen Laufwerken für PVs können Sie jedes Laufwerk unter Pfad formatieren und bereitstellen. Dies kann auch vor oder nach der Clustererstellung erfolgen.
Zu den Best Practices.
Listen Sie die Laufwerke auf und suchen Sie das Laufwerk, das Sie bereitstellen möchten:
sudo lsblk
Formatieren Sie das Laufwerk, z. B. mit einem einzelnen ext4-Dateisystem:
Fügen Sie das Laufwerk der Datei /etc/fstab hinzu, damit das Gerät automatisch beim Starten der neuen Instanz bereitgestellt wird:
# Backup of your current /etc/fstab file
sudo cp /etc/fstab /etc/fstab.backup
# Use the blkid command to find the UUID for the zonal persistent disk
sudo blkid /dev/DEVICE_ID
# Edit /etc/fstab file: create an entry that includes the UUID
UUID=UUID_VALUE /mnt/disks/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2
Geben Sie Folgendes in der Cluster-Antwortvorlage unter lvpNodeMounts an:
path: Der Hostmaschinenpfad für jede Bereitstellung, in der bereitgestellte Laufwerke erkannt werden und ein lokales PV erstellt wird. Der Standardpfad ist /mnt/localpv-disk.
storageClassName: Die Speicherklasse, mit der PVs während der Clustererstellung erstellt werden. Der Standardwert ist local-disks.
PVs werden mit der Speicherklasse erstellt, die in storageClassName angegeben ist. Die Gesamtzahl der erstellten PVs ist die Anzahl der Laufwerke, die unter path auf allen Knoten bereitgestellt wurden.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2024-08-02 (UTC)."],[],[],null,["This page shows you how to configure local volumes for Google Distributed Cloud\nclusters.\n\nGoogle Distributed Cloud clusters provide two options for configuring\n[local PVs](https://kubernetes.io/docs/concepts/storage/volumes/#local))\nin the cluster: LVP share and LVP node mounts. LVP share uses directories in a\nshared file system, while LVP node mounts uses dedicated disks.\n| **Caution:** Using a local PV binds the Pod to a specific disk and node. If that disk or node becomes unavailable, then the Pod also becomes unavailable. Workloads using local PVs need to be resilient to this kind of failure, and may require additional orchestration to release the Pod's PVCs and find a new, empty disk on another node.\n\nLVP share\n\nThis storage class creates a local PV backed by subdirectories in a local,\nshared file system on every node in the cluster. These subdirectories are\nautomatically created during cluster creation. Workloads using this storage\nclass will share capacity and IOPS because the PVs are backed by the same shared\nfile system. For better isolation, we recommend configuring disks through LVP\nnode mounts instead.\n\nConfigure an LVP share\n\n1. **Optional**: Before cluster creation, mount a disk using the configured path\n as a mount point so that the created PVs will share the new disk capacity and\n be isolated from the boot disk.\n\n2. Specify the following under `lvpShare` in the cluster CR:\n\n - `path`: The host machine path on each host where subdirectories are created. A local PV is created for each subdirectory. The default path is `/mnt/localpv-share`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-shared`.\n - `numPVUnderSharedPath`: Number of subdirectories to create under `path`. The default value is `5`.\n\n The configuration looks similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpShare:\n path: /mnt/localpv-share\n storageClassName: local-shared\n numPVUnderSharedPath: 5\n\nPVs are created with the storage class specified in `storageClassName`. The\ntotal number of local PVs created in the cluster is `numPVUnderSharedPath`\nmultiplied by the number of nodes.\n\nLVP node mounts\n\nThis storage class creates a local PV for each mounted disk in the configured\ndirectory. Each PV maps to a disk with capacity equal to the underlying disk\ncapacity. The total number of local PVs created in the cluster is the number of\ndisks mounted under the path across all nodes. Additional mounts can be added\nafter cluster creation.\n\nConfigure LVP node mounts\n\n1. On nodes that have extra disks for PVs, format and mount each disk under\n path. This can also be done before or after cluster creation. See\n [best practices](https://github.com/kubernetes-sigs/sig-storage-local-static-provisioner/blob/master/docs/best-practices.md).\n\n 1. List disks and find the one you want to mount:\n\n sudo lsblk\n\n 2. Format the disk, for example with single ext4 file system:\n\n sudo mkfs.ext4 -m 0 -E lazy_itable_init=0,lazy_journal_init=0,discard /dev/DEVICE_ID\n\n 3. Under the configured path, create a directory as the mount point for the\n new disk:\n\n sudo mkdir -p /mnt/localpv-disk/MNT_DIR\n\n 4. Mount the disk:\n\n sudo mount -o discard,defaults /dev/DEVICE_ID /mnt/localpv-disk/MNT_DIR &&\n sudo chmod a+w /mnt/localpv-disk/MNT_DIR\n\n 5. Add the disk to the `/etc/fstab` file, so that the device automatically\n mounts again when the instance restarts:\n\n # Backup of your current /etc/fstab file\n sudo cp /etc/fstab /etc/fstab.backup\n\n # Use the blkid command to find the UUID for the zonal persistent disk\n sudo blkid /dev/DEVICE_ID\n\n # Edit /etc/fstab file: create an entry that includes the UUID\n UUID=UUID_VALUE /mnt/localpv-disk/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2\n\n2. Specify the following under `lvpNodeMounts` in cluster CR:\n\n - `path`: The host machine path for each mount where mounted disks are discovered and a local PV is created. The default path is `/mnt/localpv-disk`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-disks`.\n\n The configuration looks something similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpNodeMounts:\n path: /mnt/localpv-disk\n storageClassName: local-disks\n\n PVs are created with the storage class specified in `storageClassName`. The\n total number of PVs created is the number of disks mounted under `path`\n across all nodes.\n\nWhat's next\n\n- Learn how to [configure the default storage class](/kubernetes-engine/distributed-cloud/bare-metal/docs/installing/default-storage-class)."]]