Accedi alle istanze Filestore con il driver CSI Filestore

Il driver CSI Filestore è il modo principale per utilizzare le istanze Filestore con Google Kubernetes Engine (GKE). Il driver CSI Filestore offre un'esperienza completamente gestita basata sul driver CSI Google Cloud Filestore open source.

La versione del driver CSI Filestore è collegata ai numeri di versione secondari di Kubernetes. La versione del driver CSI Filestore è in genere l'ultima disponibile al momento del rilascio della versione secondaria di Kubernetes. I driver si aggiornano automaticamente quando viene eseguito l'upgrade del cluster all'ultima versione di GKE una nuova patch.

Vantaggi

Il driver CSI Filestore offre i seguenti vantaggi:

  • Puoi accedere allo spazio di archiviazione NFS completamente gestito tramite Kubernetes API (kubectl).

  • Puoi utilizzare il driver CSI Filestore di GKE per eseguire il provisioning dinamico dei volumi permanenti.

  • Puoi utilizzare gli snapshot dei volumi con GKE Filestore driver CSI. Gli snapshot dei volumi CSI possono essere utilizzati per creare backup di Filestore.

    Un backup di Filestore crea una copia differenziale della condivisione file, inclusi tutti i dati e i metadati dei file, e la archivia separatamente dall'istanza. Puoi ripristinare questa copia solo in una nuova istanza Filestore. Il ripristino in un'istanza Filestore esistente non è supportato. Puoi utilizzare lo l'API per lo snapshot del volume CSI per attivare i backup di Filestore, aggiungendo un'istanza Campo type:backup nel classe snapshot del volume.

  • Puoi utilizzare l'espansione del volume con il driver CSI Filestore di GKE. L'espansione del volume consente di ridimensionare la capacità del volume.

  • Puoi accedere alle istanze Filestore esistenti utilizzando le istanze Filestore preprovisionate nei carichi di lavoro Kubernetes. Puoi anche creare o eliminare dinamicamente istanze Filestore e usarle nei carichi di lavoro Kubernetes con un StorageClass o un Deployment.

  • Supporta i multishare Filestore per GKE. Questa funzionalità consente di creare un'istanza Filestore e allocare più piccoli PersistentVolume montati su NFS un numero qualsiasi di cluster GKE.

Requisiti

  • Per utilizzare il driver CSI Filestore, i cluster devono utilizzare il GKE appropriato il numero di versione applicabile al livello di servizio. Solo i seguenti livelli di servizio sono supportati:

    • HDD base con GKE versione 1.21 o successive
    • SSD di base con GKE 1.21 o versioni successive
    • A livello di zona (da 10 a 100 TiB) con GKE versione 1.27 o successive
    • Enterprise con GKE 1.25 o versioni successive
    • Per utilizzare la funzionalità di condivisione multipla di Filestore, i cluster devono utilizzare GKE versione 1.25 o successive.
  • Il driver CSI Filestore è supportato per i cluster che utilizzano solo Linux. I nodi Windows Server non sono supportati.

  • La dimensione minima dell'istanza per Filestore è di almeno 1 TiB. La la dimensione minima dell'istanza dipende dal livello di servizio Filestore selezionato. Per saperne di più, consulta Livelli di servizio.

  • Filestore utilizza il protocollo del file system NFSv3 su Filestore e supporta qualsiasi client compatibile con NFSv3.

Prima di iniziare

Prima di iniziare, assicurati di aver eseguito le seguenti attività:

  • Attiva l'API Cloud Filestore l'API Google Kubernetes Engine.
  • Abilita le API
  • Se vuoi utilizzare Google Cloud CLI per questa attività, installa e poi inizializza gcloud CLI. Se hai già installato gcloud CLI, ottieni la versione più recente eseguendo gcloud components update.

Abilita il driver CSI Filestore su un nuovo cluster

Per abilitare il driver CSI del driver CSI Filestore durante la creazione di un nuovo standard segui questi passaggi con Google Cloud CLI o con la console Google Cloud.

gcloud

gcloud container clusters create CLUSTER_NAME \
    --addons=GcpFilestoreCsiDriver \
    --cluster-version=VERSION

Sostituisci quanto segue:

  • CLUSTER_NAME: il nome del tuo cluster.
  • VERSION: il numero di versione di GKE. Per utilizzare questa funzionalità, devi selezionare un numero di versione supportato. Consulta: [#requirements] per i dettagli. In alternativa, puoi utilizzare il flag --release-channel e specificare un canale di rilascio.

Console

  1. Vai alla pagina Google Kubernetes Engine nella console Google Cloud.

    Vai a Google Kubernetes Engine

  2. Fai clic su Crea.

  3. Scegli la modalità cluster Standard, quindi fai clic su Configura.

  4. Configura il cluster in base alle tue esigenze.

  5. Nel riquadro di navigazione, in Cluster, fai clic su Funzionalità.

  6. Seleziona la casella di controllo Abilita driver CSI Filestore.

  7. Fai clic su Crea.

Se vuoi utilizzare Filestore su una rete VPC condiviso, consulta Abilita il driver CSI Filestore su un nuovo cluster con VPC condiviso.

Dopo aver abilitato il driver CSI di Filestore, puoi utilizzarlo in Kubernetes volumi utilizzando il nome del driver e del provisioner: filestore.csi.storage.gke.io.

Abilita il driver CSI Filestore su un cluster esistente

Per abilitare il driver CSI Filestore nei cluster esistenti, utilizza l'interfaccia a riga di comando Google Cloud o la console Google Cloud.

Per attivare il driver in un cluster esistente, completa i seguenti passaggi:

gcloud

gcloud container clusters update CLUSTER_NAME \
   --update-addons=GcpFilestoreCsiDriver=ENABLED

Sostituisci CLUSTER_NAME con il nome del cluster esistente.

Console

  1. Vai alla pagina Google Kubernetes Engine nella console Google Cloud.

    Vai a Google Kubernetes Engine

  2. Nell'elenco dei cluster, fai clic sul nome del cluster da modificare.

  3. In Funzionalità, accanto al campo Driver CSI Filestore, fai clic su Modifica il driver CSI Filestore.

  4. Seleziona la casella di controllo Abilita driver CSI Filestore.

  5. Fai clic su Salva modifiche.

Disabilita il driver CSI di Filestore

Puoi disattivare il driver CSI Filestore in un cluster Autopilot o Standard esistente utilizzando l'interfaccia a riga di comando Google Cloud o la console Google Cloud.

gcloud

gcloud container clusters update CLUSTER_NAME \
    --update-addons=GcpFilestoreCsiDriver=DISABLED \
    --region REGION

Sostituisci i seguenti valori:

  • CLUSTER_NAME: il nome del cluster esistente.
  • REGION: la regione del cluster (ad esempio us-central1).

Console

  1. Nella console Google Cloud, vai al menu Google Kubernetes Engine.

    Vai a Google Kubernetes Engine

  2. Nell'elenco dei cluster, fai clic sul nome del cluster da modificare.

  3. In Funzionalità, accanto al campo Driver CSI Filestore, fai clic su Modifica il driver CSI Filestore.

  4. Deseleziona la casella di controllo Abilita driver CSI Filestore.

  5. Fai clic su Salva modifiche.

Accedi alle istanze Filestore preesistenti utilizzando il driver CSI Filestore

Questa sezione descrive il processo tipico per l'utilizzo di un oggetto Kubernetes per accedere a istanze Filestore preesistenti utilizzando il driver CSI Filestore in GKE:

Crea un PersistentVolume e un PersistentVolumeClaim per accedere all'istanza

  1. Crea un file manifest come quello mostrato nell'esempio seguente e denomina il file manifest. preprov-filestore.yaml:

    apiVersion: v1
    kind: PersistentVolume
    metadata:
      name: PV_NAME
    spec:
      storageClassName: ""
      capacity:
        storage: 1Ti
      accessModes:
        - ReadWriteMany
      persistentVolumeReclaimPolicy: Retain
      volumeMode: Filesystem
      csi:
        driver: filestore.csi.storage.gke.io
        volumeHandle: "modeInstance/FILESTORE_INSTANCE_LOCATION/FILESTORE_INSTANCE_NAME/FILESTORE_SHARE_NAME"
        volumeAttributes:
          ip: FILESTORE_INSTANCE_IP
          volume: FILESTORE_SHARE_NAME
    ---
    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
      name: podpvc
    spec:
      accessModes:
        - ReadWriteMany
      storageClassName: ""
      volumeName: PV_NAME
      resources:
        requests:
          storage: 1Ti
    
  2. Per creare le risorse PersistentVolumeClaim e PersistentVolume basate nel file manifest preprov-filestore.yaml, esegui questo comando:

    kubectl apply -f preprov-filestore.yaml
    

Quindi, procedi a creare un deployment che consumi il volume.

Creare un volume utilizzando il driver CSI Filestore

Le seguenti sezioni descrivono la procedura tipica per l'utilizzo di un volume Kubernetes supportato da un driver CSI Filestore in GKE:

Crea una classe StorageClass

Dopo aver attivato il driver CSI Filestore, GKE installa automaticamente le seguenti classi di archiviazione per il provisioning delle istanze Filestore:

Ogni StorageClass è disponibile solo nei cluster GKE in esecuzione nei rispettivi numeri di versione GKE supportati. Per un elenco delle versioni supportate richieste per ogni livello di servizio, consulta Requisiti.

Puoi trovare il nome del dispositivo StorageClass installato eseguendo questo comando :

kubectl get sc

Puoi anche installare un'istanza StorageClass diversa che utilizza il driver CSI Filestore aggiungendo filestore.csi.storage.gke.io nel campo provisioner.

Filestore deve sapere su quale rete creare la nuova istanza. Gli oggetti StorageClass installati automaticamente utilizzano il valore predefinito creata per i cluster GKE. Se hai eliminato questa rete o vuoi utilizzare una rete diversa, devi creare un nuovo StorageClass come descritto nei passaggi che seguono. In caso contrario, le classi StorageClass installate automaticamente non funzioneranno.

  1. Salva il seguente manifest come filestore-example-class.yaml:

    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: filestore-example
    provisioner: filestore.csi.storage.gke.io
    volumeBindingMode: Immediate
    allowVolumeExpansion: true
    parameters:
      tier: standard
      network: default
    

    Nel file manifest, considera la seguente configurazione di parametri:

    • L'impostazione di volumeBindingMode su Immediate consente di iniziare immediatamente il provisioning del volume. Questo è possibile perché le istanze Filestore sono accessibili da qualsiasi zona. Pertanto, GKE non deve conoscere la zona in cui è pianificato il pod, diversamente dal disco permanente Compute Engine. Se impostato su WaitForFirstConsumer, GKE inizia il provisioning solo dopo la pianificazione del pod. Per ulteriori informazioni, vedi VolumeBindingMode.
    • Qualsiasi livello Filestore supportato può essere specificato nel parametro tier (ad es. BASIC_HDD, BASIC_SSD, ZONAL o ENTERPRISE).
    • Il parametro network può essere utilizzato durante il provisioning di istanze Filestore su istanze non predefinite VPC. I VPC non predefiniti richiedono regole firewall speciali da configurare.
  2. Per creare una risorsa StorageClass basata su filestore-example-class.yaml manifest, esegui questo comando:

    kubectl create -f filestore-example-class.yaml
    

Se vuoi utilizzare Filestore su una rete VPC condiviso, consulta Crea un oggetto StorageClass quando utilizzi il driver CSI Filestore con VPC condiviso.

Usa un oggetto PersistentVolumeClaim per accedere al volume

Puoi creare una risorsa PersistentVolumeClaim che fa riferimento alla StorageClass del driver CSI Filestore.

Puoi utilizzare un'istanza StorageClass preinstallata o personalizzata.

Il seguente file manifest di esempio crea un PersistentVolumeClaim che fa riferimento al StorageClass denominato filestore-example.

  1. Salva il seguente file manifest come pvc-example.yaml:

    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
      name: podpvc
    spec:
      accessModes:
      - ReadWriteMany
      storageClassName: filestore-example
      resources:
        requests:
          storage: 1Ti
    
  2. Per creare una risorsa PersistentVolumeClaim basata su pvc-example.yaml manifest, esegui questo comando:

    kubectl create -f pvc-example.yaml
    

Crea un deployment che utilizza il volume

Il manifest di deployment di esempio seguente utilizza l'PersistentVolume risorsa denominata pvc-example.yaml.

Più pod possono condividere la stessa risorsa PersistentVolumeClaim.

  1. Salva il seguente manifest come filestore-example-deployment.yaml:

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-server-deployment
      labels:
        app: nginx
    spec:
      replicas: 3
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          labels:
            app: nginx
        spec:
          containers:
          - name: nginx
            image: nginx
            volumeMounts:
            - mountPath: /usr/share/nginx/html
              name: mypvc
          volumes:
          - name: mypvc
            persistentVolumeClaim:
              claimName: podpvc
    ---
    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
      name: podpvc
    spec:
      accessModes:
        - ReadWriteMany
      storageClassName: filestore-example
      resources:
        requests:
          storage: 1Ti
    
  2. Per creare un deployment basato su filestore-example-deployment.yaml manifest, esegui questo comando:

    kubectl apply -f filestore-example-deployment.yaml
    
  3. Verifica che il deployment sia stato creato correttamente:

    kubectl get deployment
    

    Il completamento del provisioning delle istanze Filestore potrebbe richiedere del tempo. Prima di questa data, i deployment non registreranno uno stato READY. Puoi controllare lo stato dell'avanzamento monitorando lo stato della PVC eseguendo il seguente comando:

    kubectl get pvc
    

    Al termine del provisioning del volume, dovresti vedere che il PVC raggiunge lo stato BOUND.

Etichetta le istanze Filestore

Puoi utilizzare le etichette per raggruppare le istanze correlate e archiviare i metadati relativi a un'istanza. Un'etichetta è una coppia chiave-valore che ti aiuta per organizzare le istanze Filestore. Puoi allegare un'etichetta a ciascun e poi filtrarle in base alle etichette.

Puoi fornire le etichette utilizzando la chiave labels in StorageClass.parameters. Un'istanza Filestore può essere etichettata con informazioni su per cosa è stata creata PersistentVolumeClaim/PersistentVolume. Le chiavi e i valori delle etichette personalizzate devono essere conformi all'etichetta convenzione di denominazione. Scopri la documentazione di Kubernetes esempio di classe di archiviazione per applicare etichette personalizzate all'istanza Filestore.

Usa fsgroup con i volumi Filestore

Kubernetes utilizza fsGroup per modificare le autorizzazioni e la proprietà del volume in modo che corrispondano a un fsGroup richiesto dall'utente nel SecurityContext del pod. Un fsGroup è un gruppo supplementare che si applica a tutti i container in un pod. Puoi applicare un gruppo fs ai volumi di cui è stato eseguito il provisioning dal driver CSI Filestore.

Configura le regole di accesso IP con i volumi Filestore

Filestore supporta il controllo controllo dell'accesso basato su IP regole per come i bilanciatori del carico e i volumi di archiviazione. Questa funzionalità è disponibile nei cluster GKE che eseguono la versione 1.29.5 o successive.

Questa funzionalità consente agli amministratori di specificare quali intervalli di indirizzi IP sono autorizzati ad accedere a un'istanza Filestore di cui è stato eseguito il provisioning in modo dinamico tramite GKE. In questo modo, la sicurezza viene migliorata limitando l'accesso solo ai client autorizzati, in particolare in scenari in cui l'intervallo IP del cluster GKE è troppo ampio, esponendo potenzialmente l'istanza Filestore a utenti o applicazioni non autorizzati.

Queste regole possono essere configurate direttamente tramite l'API Filestore oppure tramite il driver CSI Filestore quando viene creato un volume. Puoi fornire il parametro selezionata in formato JSON in StorageClass utilizzando Parametro nfs-export-options-on-create.

Il seguente manifest di esempio mostra come specificare la configurazione:

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: filestore-example
provisioner: filestore.csi.storage.gke.io
volumeBindingMode: Immediate
allowVolumeExpansion: true
parameters:
  tier: "enterprise"
  nfs-export-options-on-create: '[
    {
      "accessMode": "READ_WRITE",
      "ipRanges": [
        "10.0.0.0/24"
      ],
      "squashMode": "ROOT_SQUASH",
      "anonUid": "1003",
      "anonGid": "1003"
    },
    {
      "accessMode": "READ_WRITE",
      "ipRanges": [
        "10.0.0.0/28"
      ],
      "squashMode": "NO_ROOT_SQUASH"
    }
  ]'

Opzioni di sicurezza

Le regole di accesso IP di Filestore semplificano la configurazione delle autorizzazioni di archiviazione dei file condivisi per i tuoi carichi di lavoro GKE. Tuttavia, per capire come gestisce la proprietà e l'accesso ai file, è necessario comprendere alcuni concetti chiave:

  • Mappature NFS e utente NFS (Network File System) è il protocollo utilizzato da Filestore. Funziona mappando gli utenti sui sistemi client (i tuoi pod GKE) agli utenti sul server Filestore. Se un file sul server è di proprietà dell'ID utente 1003 e un client si connette con l'ID utente 1003, avrà accesso al file.

  • Root squash e anonUid:

    • L'appiattimento dei privilegi di root ROOT_SQUASH è una funzionalità di sicurezza che impedisce ai client di accedere all'istanza Filestore con privilegi di root completi. Quando il root squash è abilitato, gli utenti root sui sistemi client vengono mappati utente senza privilegi specificato dall'impostazione anonUid.

    • Nessun root Squashing (NO_ROOT_SQUASH) consente ai client di accedere Istanza Filestore con privilegi root completi, pratico per ma meno sicura per le normali operazioni.

  • Configurazione e autorizzazioni iniziali: per impostazione predefinita, una nuova istanza Filestore di proprietà dell'utente root. Se attivi l'accorciamento delle autorizzazioni di root senza prima configurare le autorizzazioni per altri utenti, perderai l'accesso. Per questo motivo, è necessario almeno una regola di esportazione NFS con NO_ROOT_SQUASH per configurare inizialmente l'accesso per altri utenti e gruppi.

Consigli

  • Configurazione iniziale:inizia sempre con almeno una regola di esportazione NFS che specifica un intervallo amministratore con autorizzazioni READ_WRITE e consente Accesso a NO_ROOT_SQUASH. Utilizza questo accesso per creare directory, impostare autorizzazioni e assegnare la proprietà in base alle esigenze.
  • Sicurezza: attiva lo squashing del root (ROOT_SQUASH) per migliorare la sicurezza. Tieni presente che dopo aver creato un volume, puoi modificare le regole di accesso solo tramite l'API Filestore.
  • Accesso condiviso: utilizza fsGroup nei contesti di sicurezza dei pod per gestire la proprietà di gruppo dei volumi condivisi. Assicurati di non sovrapporre l'impostazione con la modalità ROOT_SQUASH. Questa operazione restituisce un Access denied .

Utilizzare Filestore con VPC condiviso

Questa sezione spiega come utilizzare un'istanza Filestore su una rete VPC condivisa da un progetto di servizio.

Configurare un cluster con VPC condiviso

Per configurare i cluster con una rete VPC condivisa:

  1. Crea un progetto host e di servizio.
  2. Abilita l'API Google Kubernetes Engine sia nei progetti host che in quelli di servizio.
  3. Nel progetto host, crea una rete e una subnet.
  4. Abilita il VPC condiviso nel progetto host.
  5. Nel progetto host, concedi l'associazione del ruolo utente HostServiceAgent per l'account di servizio GKE del progetto di servizio.
  6. Abilita l'accesso privato ai servizi sulla rete VPC condivisa.

Attivare il driver CSI Filestore in un nuovo cluster con VPC condiviso

Per abilitare il driver CSI Filestore su un nuovo cluster con VPC condiviso, segui questi passaggi:

  1. Verifica le sottoreti e gli intervalli secondari utilizzabili. Quando crei un cluster, devi specificare una subnet e gli intervalli di indirizzi IP secondari da utilizzare di pod e servizio del cluster.

    gcloud container subnets list-usable \
       --project=SERVICE_PROJECT_ID \
       --network-project=HOST_PROJECT_ID
    

    L'output è simile al seguente:

    PROJECT                   REGION       NETWORK     SUBNET  RANGE
    HOST_PROJECT_ID  us-central1  shared-net  tier-1  10.0.4.0/22
    ┌──────────────────────┬───────────────┬─────────────────────────────┐
    │ SECONDARY_RANGE_NAME  IP_CIDR_RANGE             STATUS           │
    ├──────────────────────┼───────────────┼─────────────────────────────┤
    │ tier-1-pods           10.4.0.0/14    usable for pods or services │
    │ tier-1-services       10.0.32.0/20   usable for pods or services │
    └──────────────────────┴───────────────┴─────────────────────────────┘
    
  2. Creare un cluster GKE. I seguenti esempi mostrano come puoi usa gcloud CLI per creare un modello Autopilot o Standard configurato per il VPC condiviso. I seguenti esempi utilizzano i nomi della rete, della subnet e dell'intervallo di Creazione di una rete e due subnet.

    Autopilot

    gcloud container clusters create-auto tier-1-cluster \
       --project=SERVICE_PROJECT_ID \
       --region=COMPUTE_REGION \
       --network=projects/HOST_PROJECT_ID/global/networks/NETWORK_NAME \
       --subnetwork=projects/HOST_PROJECT_ID/regions/COMPUTE_REGION/subnetworks/SUBNET_NAME \
       --cluster-secondary-range-name=tier-1-pods \
       --services-secondary-range-name=tier-1-services
    

    Standard

    gcloud container clusters create tier-1-cluster \
       --project=SERVICE_PROJECT_ID \
       --zone=COMPUTE_REGION \
       --enable-ip-alias \
       --network=projects/HOST_PROJECT_ID/global/networks/NETWORK_NAME \
       --subnetwork=projects/HOST_PROJECT_ID/regions/COMPUTE_REGION/subnetworks/SUBNET_NAME \
       --cluster-secondary-range-name=tier-1-pods \
       --services-secondary-range-name=tier-1-services \
       --addons=GcpFilestoreCsiDriver
    
  3. Creare regole firewall per consentire la comunicazione tra nodi, pod servizi nel tuo cluster. L'esempio seguente mostra come creare una regola firewall denominata my-shared-net-rule-2.

    gcloud compute firewall-rules create my-shared-net-rule-2 \
       --project HOST_PROJECT_ID \
       --network=NETWORK_NAME \
       --allow=tcp,udp \
       --direction=INGRESS \
       --source-ranges=10.0.4.0/22,10.4.0.0/14,10.0.32.0/20
    

    Nell'esempio, i valori IP degli intervalli di origine provengono dal passaggio precedente in cui hai verificato le subnet utilizzabili e gli intervalli secondari.

Creare un StorageClass quando si utilizza il driver CSI Filestore con VPC condiviso

L'esempio seguente mostra come creare un StorageClass quando utilizzi il driver CSI Filestore con VPC condiviso:

cat <<EOF | kubectl apply -f -

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: filestore-sharedvpc-example
provisioner: filestore.csi.storage.gke.io
parameters:
  network: "projects/HOST_PROJECT_ID/global/networks/SHARED_VPC_NAME"
  connect-mode: PRIVATE_SERVICE_ACCESS
  reserved-ip-range: RESERVED_IP_RANGE_NAME
allowVolumeExpansion: true

EOF

Sostituisci quanto segue:

  • HOST_PROJECT_ID: l'ID o il nome del progetto host di sulla rete VPC condiviso.
  • SHARED_VPC_NAME: il nome della rete VPC condivisa che hai creato in precedenza.
  • RESERVED_IP_RANGE_NAME: il nome dello specifico di indirizzi IP riservati in cui eseguire il provisioning dell'istanza Filestore. Questo campo è facoltativo. Se viene specificato un intervallo di indirizzi IP riservato, deve essere un intervallo di indirizzi nominato anziché un valore CIDR diretto.

Se vuoi eseguire il provisioning di un volume supportato da Filestore multishares su Per i cluster GKE che eseguono la versione 1.23 o successive, consulta Ottimizza lo spazio di archiviazione con le multishare Filestore per GKE.

Riconnetti i volumi con una singola condivisione Filestore

Se utilizzi Filestore con HDD di base, SSD di base o (condivisione singola), puoi seguire queste istruzioni per riconnettere il tuo l'istanza Filestore esistente ai carichi di lavoro GKE.

  1. Trova i dettagli dell'istanza Filestore di cui è stato eseguito il pre-provisioning seguendo le istruzioni riportate in Ottenere informazioni su un'istanza specifica.

  2. Riapplica la specifica PersistentVolume. Nel campo volumeAttributes, modifica i seguenti campi per utilizzare gli stessi valori di Filestore nel passaggio 1:

    • ip: modifica questo valore con l'indirizzo IP dell'istanza Filestore pre-provisioned.
    • volume: modifica questo valore nel file Filestore di cui è stato eseguito il pre-provisioning il nome condivisione dell'istanza.
  3. Esegui di nuovo il deployment della specifica PersistentVolumeClaim. In volumeName assicurati di fare riferimento allo stesso nome PersistentVolume del passaggio 2.

  4. Controlla lo stato del vincolo di PersistentVolumeClaim e PersistentVolume eseguendo kubectl get pvc.

  5. Esegui di nuovo il deployment della specifica del pod e assicurati che il pod sia in grado di accedere la condivisione di Filestore.

Passaggi successivi