Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette page vous explique comment configurer des volumes locaux pour les clusters Google Distributed Cloud.
Les clusters Google Distributed Cloud fournissent deux options pour configurer des volumes persistants locaux (LVP) dans un cluster : le partage LVP et les installations de nœuds LVP. Le partage LVP utilise des répertoires dans un système de fichiers partagé, tandis que les installations de nœuds LVP utilisent des disques dédiés.
Partage LVP
Cette classe de stockage crée un PV local sauvegardé par des sous-répertoires dans un système de fichiers local partagé sur chaque nœud du cluster. Ces sous-répertoires sont générés automatiquement lors de la création du cluster. Les charges de travail utilisant cette classe de stockage partagent la capacité et les IOPS, car les PV sont sauvegardés par le même système de fichiers partagé. Pour une meilleure isolation, nous vous recommandons plutôt de configurer des disques via des montages de nœuds LVP.
Configurer un partage LVP
Facultatif : Avant la création du cluster, installez un disque en utilisant le chemin configuré comme point d'installation afin que les volumes persistants créés partagent la capacité du disque et soient isolés du disque de démarrage.
Spécifiez les éléments suivants sous lvpShare dans la configuration du cluster :
path : chemin d'accès à la machine hôte sur chaque hôte où des sous-répertoires sont créés. Un volume persistant local est créé pour chaque sous-répertoire. Le chemin par défaut est /mnt/localpv-share.
storageClassName : classe de stockage avec laquelle les volumes persistants sont créés lors de la création du cluster. La valeur par défaut est local-shared.
numPVUnderSharedPath : nombre de sous-répertoires à créer sous path.
La valeur par défaut est 5.
Les volumes persistants sont créés avec la classe de stockage spécifiée dans storageClassName. Le nombre total de volumes persistants locaux créés dans le cluster est numPVUnderSharedPath multiplié par le nombre de nœuds.
Installations de nœuds LVP
Cette classe de stockage crée un PV local pour chaque disque installé dans le répertoire configuré. Chaque PV est associé à un disque ayant une capacité égale à la capacité de disque sous-jacente. Le nombre total de PV locaux créés dans le cluster correspond au nombre de disques installés sous le chemin d'accès de tous les nœuds. Des installations supplémentaires peuvent être ajoutées après la création du cluster.
Configurer des installations de nœuds LVP
Sur les nœuds disposant de disques supplémentaires pour les PV, formatez et installez chaque disque sous le chemin d'accès. Vous pouvez également effectuer cette opération avant ou après la création du cluster. Consultez les bonnes pratiques.
Répertoriez les disques et recherchez celui que vous souhaitez installer :
sudo lsblk
Formatez le disque, par exemple avec un seul système de fichiers ext4 :
Ajoutez le disque au fichier /etc/fstab, afin qu'il soit installé de nouveau automatiquement au redémarrage de l'instance :
# Backup of your current /etc/fstab file
sudo cp /etc/fstab /etc/fstab.backup
# Use the blkid command to find the UUID for the zonal persistent disk
sudo blkid /dev/DEVICE_ID
# Edit /etc/fstab file: create an entry that includes the UUID
UUID=UUID_VALUE /mnt/localpv-disk/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2
Spécifiez les éléments suivants sous lvpNodeMounts dans la configuration du cluster :
path : chemin d'accès à la machine hôte pour chaque installation où des disques installés sont détectés et un volume persistant local est créé. Le chemin par défaut est /mnt/localpv-disk.
storageClassName : classe de stockage avec laquelle les volumes persistants sont créés lors de la création du cluster. La valeur par défaut est local-disks.
Les volumes persistants sont créés avec la classe de stockage spécifiée dans storageClassName. Le nombre total de volumes persistants créés correspond au nombre de disques installés sous path sur l'ensemble des nœuds.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/03 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/03 (UTC)."],[],[],null,["This page shows you how to configure local volumes for Google Distributed Cloud\nclusters.\n\nGoogle Distributed Cloud clusters provide two options for configuring\n[local PVs](https://kubernetes.io/docs/concepts/storage/volumes/#local))\nin the cluster: LVP share and LVP node mounts. LVP share uses directories in a\nshared file system, while LVP node mounts uses dedicated disks.\n| **Caution:** Using a local PV binds the Pod to a specific disk and node. If that disk or node becomes unavailable, then the Pod also becomes unavailable. Workloads using local PVs need to be resilient to this kind of failure, and may require additional orchestration to release the Pod's PVCs and find a new, empty disk on another node.\n\nLVP share\n\nThis storage class creates a local PV backed by subdirectories in a local,\nshared file system on every node in the cluster. These subdirectories are\nautomatically created during cluster creation. Workloads using this storage\nclass will share capacity and IOPS because the PVs are backed by the same shared\nfile system. For better isolation, we recommend configuring disks through LVP\nnode mounts instead.\n\nConfigure an LVP share\n\n1. **Optional**: Before cluster creation, mount a disk using the configured path\n as a mount point so that the created PVs will share the new disk capacity and\n be isolated from the boot disk.\n\n2. Specify the following under `lvpShare` in the cluster CR:\n\n - `path`: The host machine path on each host where subdirectories are created. A local PV is created for each subdirectory. The default path is `/mnt/localpv-share`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-shared`.\n - `numPVUnderSharedPath`: Number of subdirectories to create under `path`. The default value is `5`.\n\n The configuration looks similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpShare:\n path: /mnt/localpv-share\n storageClassName: local-shared\n numPVUnderSharedPath: 5\n\nPVs are created with the storage class specified in `storageClassName`. The\ntotal number of local PVs created in the cluster is `numPVUnderSharedPath`\nmultiplied by the number of nodes.\n\nLVP node mounts\n\nThis storage class creates a local PV for each mounted disk in the configured\ndirectory. Each PV maps to a disk with capacity equal to the underlying disk\ncapacity. The total number of local PVs created in the cluster is the number of\ndisks mounted under the path across all nodes. Additional mounts can be added\nafter cluster creation.\n\nConfigure LVP node mounts\n\n1. On nodes that have extra disks for PVs, format and mount each disk under\n path. This can also be done before or after cluster creation. See\n [best practices](https://github.com/kubernetes-sigs/sig-storage-local-static-provisioner/blob/master/docs/best-practices.md).\n\n 1. List disks and find the one you want to mount:\n\n sudo lsblk\n\n 2. Format the disk, for example with single ext4 file system:\n\n sudo mkfs.ext4 -m 0 -E lazy_itable_init=0,lazy_journal_init=0,discard /dev/DEVICE_ID\n\n 3. Under the configured path, create a directory as the mount point for the\n new disk:\n\n sudo mkdir -p /mnt/localpv-disk/MNT_DIR\n\n 4. Mount the disk:\n\n sudo mount -o discard,defaults /dev/DEVICE_ID /mnt/localpv-disk/MNT_DIR &&\n sudo chmod a+w /mnt/localpv-disk/MNT_DIR\n\n 5. Add the disk to the `/etc/fstab` file, so that the device automatically\n mounts again when the instance restarts:\n\n # Backup of your current /etc/fstab file\n sudo cp /etc/fstab /etc/fstab.backup\n\n # Use the blkid command to find the UUID for the zonal persistent disk\n sudo blkid /dev/DEVICE_ID\n\n # Edit /etc/fstab file: create an entry that includes the UUID\n UUID=UUID_VALUE /mnt/localpv-disk/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2\n\n2. Specify the following under `lvpNodeMounts` in cluster CR:\n\n - `path`: The host machine path for each mount where mounted disks are discovered and a local PV is created. The default path is `/mnt/localpv-disk`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-disks`.\n\n The configuration looks something similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpNodeMounts:\n path: /mnt/localpv-disk\n storageClassName: local-disks\n\n PVs are created with the storage class specified in `storageClassName`. The\n total number of PVs created is the number of disks mounted under `path`\n across all nodes.\n\nWhat's next\n\n- Learn how to [configure the default storage class](/kubernetes-engine/distributed-cloud/bare-metal/docs/installing/default-storage-class)."]]