Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
En esta página, se muestra cómo configurar volúmenes locales para clústeres de Google Distributed Cloud.
Los clústeres de Google Distributed Cloud ofrecen dos opciones para configurar PV locales) en el clúster: uso compartido de LVP y activaciones de nodos de LVP. El uso compartido de LVP utiliza directorios en un sistema de archivos compartidos, mientras que las activaciones de nodos de LVP usan discos exclusivos.
Uso compartido de LVP
Esta clase de almacenamiento crea un PV local respaldado por subdirectorios en un sistema de archivos compartido local en cada nodo del clúster. Estos subdirectorios se crean de forma automática durante la creación del clúster. Las cargas de trabajo que usan esta clase de almacenamiento compartirán la capacidad y las IOPS porque los PV están respaldados por el mismo sistema de archivos compartido. Para obtener un mejor aislamiento, recomendamos configurar los discos a través de activaciones de nodos de LVP.
Configura un recurso compartido de LVP
Opcional: Antes de crear el clúster, activa un disco con la ruta configurada como un punto de activación para que los PV que se creen compartan la capacidad nueva del disco y se aíslen del disco de arranque.
Especifica lo siguiente en lvpShare en la CR del clúster:
path: La ruta de la máquina anfitrión en cada host en la que se crean los subdirectorios Se crea un PV local para cada subdirectorio. La ruta predeterminada es /mnt/localpv-share.
storageClassName: es la clase de almacenamiento con la que se crean los PV durante la creación del clúster. El valor predeterminado es local-shared.
numPVUnderSharedPath: es la cantidad de subdirectorios que se crearán en path.
El valor predeterminado es 5.
Los PV se crean con la clase de almacenamiento especificada en storageClassName. La cantidad total de PV locales creados en el clúster es numPVUnderSharedPath multiplicada por la cantidad de nodos.
Activaciones de nodos de LVP
Esta clase de almacenamiento crea un PV local para cada disco activado en el directorio configurado. Cada PV se asigna a un disco con capacidad igual a la capacidad del disco subyacente. La cantidad total de PV locales creados en el clúster es la cantidad de discos activados en la ruta de acceso en todos los nodos. Se pueden agregar activaciones adicionales después de la creación del clúster.
Configura activaciones de nodo de LVP
En nodos que tienen discos adicionales para PV, formatea y activa cada disco en la ruta de acceso. Esto también se puede hacer antes o después de la creación del clúster. Consulta las prácticas recomendadas
Enumera los discos y busca el que deseas activar:
sudo lsblk
Formatea el disco, por ejemplo, con un único sistema de archivos ext4:
Agrega el disco al archivo /etc/fstab para que el dispositivo se vuelva a activar de forma automática cuando se reinicie la instancia:
# Backup of your current /etc/fstab file
sudo cp /etc/fstab /etc/fstab.backup
# Use the blkid command to find the UUID for the zonal persistent disk
sudo blkid /dev/DEVICE_ID
# Edit /etc/fstab file: create an entry that includes the UUID
UUID=UUID_VALUE /mnt/localpv-disk/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2
Especifica lo siguiente en lvpNodeMounts en la CR del clúster:
path: La ruta de acceso de la máquina anfitrión para cada activación en la que se descubren discos activados y se crea un PV local. La ruta predeterminada es /mnt/localpv-disk.
storageClassName: es la clase de almacenamiento con la que se crean los PV durante la creación del clúster. El valor predeterminado es local-disks.
Los PV se crean con la clase de almacenamiento especificada en storageClassName. La cantidad total de PV creados es la cantidad de discos activados en path entre todos los nodos.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-01 (UTC)"],[],[],null,["This page shows you how to configure local volumes for Google Distributed Cloud\nclusters.\n\nGoogle Distributed Cloud clusters provide two options for configuring\n[local PVs](https://kubernetes.io/docs/concepts/storage/volumes/#local))\nin the cluster: LVP share and LVP node mounts. LVP share uses directories in a\nshared file system, while LVP node mounts uses dedicated disks.\n| **Caution:** Using a local PV binds the Pod to a specific disk and node. If that disk or node becomes unavailable, then the Pod also becomes unavailable. Workloads using local PVs need to be resilient to this kind of failure, and may require additional orchestration to release the Pod's PVCs and find a new, empty disk on another node.\n\nLVP share\n\nThis storage class creates a local PV backed by subdirectories in a local,\nshared file system on every node in the cluster. These subdirectories are\nautomatically created during cluster creation. Workloads using this storage\nclass will share capacity and IOPS because the PVs are backed by the same shared\nfile system. For better isolation, we recommend configuring disks through LVP\nnode mounts instead.\n\nConfigure an LVP share\n\n1. **Optional**: Before cluster creation, mount a disk using the configured path\n as a mount point so that the created PVs will share the new disk capacity and\n be isolated from the boot disk.\n\n2. Specify the following under `lvpShare` in the cluster CR:\n\n - `path`: The host machine path on each host where subdirectories are created. A local PV is created for each subdirectory. The default path is `/mnt/localpv-share`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-shared`.\n - `numPVUnderSharedPath`: Number of subdirectories to create under `path`. The default value is `5`.\n\n The configuration looks similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpShare:\n path: /mnt/localpv-share\n storageClassName: local-shared\n numPVUnderSharedPath: 5\n\nPVs are created with the storage class specified in `storageClassName`. The\ntotal number of local PVs created in the cluster is `numPVUnderSharedPath`\nmultiplied by the number of nodes.\n\nLVP node mounts\n\nThis storage class creates a local PV for each mounted disk in the configured\ndirectory. Each PV maps to a disk with capacity equal to the underlying disk\ncapacity. The total number of local PVs created in the cluster is the number of\ndisks mounted under the path across all nodes. Additional mounts can be added\nafter cluster creation.\n\nConfigure LVP node mounts\n\n1. On nodes that have extra disks for PVs, format and mount each disk under\n path. This can also be done before or after cluster creation. See\n [best practices](https://github.com/kubernetes-sigs/sig-storage-local-static-provisioner/blob/master/docs/best-practices.md).\n\n 1. List disks and find the one you want to mount:\n\n sudo lsblk\n\n 2. Format the disk, for example with single ext4 file system:\n\n sudo mkfs.ext4 -m 0 -E lazy_itable_init=0,lazy_journal_init=0,discard /dev/DEVICE_ID\n\n 3. Under the configured path, create a directory as the mount point for the\n new disk:\n\n sudo mkdir -p /mnt/localpv-disk/MNT_DIR\n\n 4. Mount the disk:\n\n sudo mount -o discard,defaults /dev/DEVICE_ID /mnt/localpv-disk/MNT_DIR &&\n sudo chmod a+w /mnt/localpv-disk/MNT_DIR\n\n 5. Add the disk to the `/etc/fstab` file, so that the device automatically\n mounts again when the instance restarts:\n\n # Backup of your current /etc/fstab file\n sudo cp /etc/fstab /etc/fstab.backup\n\n # Use the blkid command to find the UUID for the zonal persistent disk\n sudo blkid /dev/DEVICE_ID\n\n # Edit /etc/fstab file: create an entry that includes the UUID\n UUID=UUID_VALUE /mnt/localpv-disk/MNT_DIR ext4 discard,defaults,NOFAIL_OPTION 0 2\n\n2. Specify the following under `lvpNodeMounts` in cluster CR:\n\n - `path`: The host machine path for each mount where mounted disks are discovered and a local PV is created. The default path is `/mnt/localpv-disk`.\n - `storageClassName`: The storage class that PVs are created with during cluster creation. The default value is `local-disks`.\n\n The configuration looks something similar to the following: \n\n apiVersion: baremetal.cluster.gke.io/v1\n kind: Cluster\n metadata:\n name: cluster1\n namespace: cluster-cluster1\n spec:\n storage:\n lvpNodeMounts:\n path: /mnt/localpv-disk\n storageClassName: local-disks\n\n PVs are created with the storage class specified in `storageClassName`. The\n total number of PVs created is the number of disks mounted under `path`\n across all nodes.\n\nWhat's next\n\n- Learn how to [configure the default storage class](/kubernetes-engine/distributed-cloud/bare-metal/docs/installing/default-storage-class)."]]