Il driver CSI Filestore è il modo principale per utilizzare Filestore di archiviazione con Google Kubernetes Engine (GKE). Il driver CSI di Filestore fornisce un server basata sul driver CSI Google Cloud Filestore open source.
La versione del driver CSI Filestore è collegata ai numeri di versione secondari di Kubernetes. La La versione del driver CSI Filestore è in genere il driver più recente disponibile che viene rilasciata la versione secondaria di Kubernetes. I driver vengono aggiornati automaticamente quando viene eseguito l'upgrade del cluster all'ultima patch GKE.
Vantaggi
Il driver CSI Filestore offre i seguenti vantaggi:
Puoi accedere allo spazio di archiviazione NFS completamente gestito tramite Kubernetes API (
kubectl
).Puoi utilizzare il driver CSI di GKE Filestore per configurare dinamicamente per il provisioning degli oggetti PersistentVolume.
Puoi utilizzare gli snapshot dei volumi con GKE Filestore driver CSI. Snapshot dei volumi CSI può essere utilizzato per creare backup di Filestore.
Un backup di Filestore crea una copia differenziale della condivisione file, inclusi tutti i dati e i metadati dei file e li archivia separatamente dall'istanza. Puoi ripristinare questa copia solo in una nuova istanza Filestore. Ripristino in corso a un'istanza Filestore esistente non è supportato. Puoi utilizzare lo l'API per lo snapshot del volume CSI per attivare i backup di Filestore, aggiungendo un'istanza Campo
type:backup
nel classe snapshot del volume.Puoi utilizzare la modalità espansione del volume con il driver CSI di GKE Filestore. Espansione del volume consente di ridimensionare la capacità del volume.
Puoi accedere alle istanze Filestore esistenti utilizzando istanze Filestore di cui è stato eseguito il pre-provisioning nei carichi di lavoro Kubernetes. Puoi anche creare o eliminare dinamicamente istanze Filestore per usarle nei carichi di lavoro Kubernetes StorageClass o un Deployment.
Supporta condivisioni multiple di Filestore per GKE. Questa funzionalità ti consente di creare un'istanza Filestore e di allocare contemporaneamente più volumi permanenti montati su NFS di dimensioni inferiori su un numero qualsiasi di cluster GKE.
Requisiti
Per utilizzare il driver CSI Filestore, i cluster devono utilizzare il GKE appropriato il numero di versione applicabile al livello di servizio. Solo i seguenti livelli di servizio sono supportati:
- HDD base con GKE versione 1.21 o successive
- SSD base con GKE versione 1.21 o successive
- A livello di zona (da 10 TiB a 100 TiB) con GKE versione 1.27 o successive
- Enterprise con GKE versione 1.25 o successive
- Per utilizzare la funzionalità di condivisione multipla di Filestore, i cluster devono utilizzare GKE versione 1.25 o successive.
Il driver CSI Filestore è supportato per i cluster che utilizzano solo Linux; i nodi Windows Server non sono supportati.
La dimensione minima dell'istanza per Filestore è di almeno 1 TiB. La dimensione minima dell'istanza dipende dal livello di servizio Filestore selezionato. Per saperne di più, consulta la sezione Livelli di servizio.
Filestore utilizza il protocollo del file system NFSv3 su Filestore e supporta qualsiasi client compatibile con NFSv3.
Prima di iniziare
Prima di iniziare, assicurati di aver eseguito le seguenti attività:
- Abilita l'API Cloud Filestore e l'API Google Kubernetes Engine. Abilita le API
- Se vuoi utilizzare Google Cloud CLI per questa attività,
installa e poi
inizializza gcloud CLI. Se hai già installato gcloud CLI, ottieni la versione più recente eseguendo
gcloud components update
.
- Se vuoi utilizzare Filestore su una rete VPC condiviso, consulta le istruzioni di configurazione aggiuntive in Utilizzare Filestore con un VPC condiviso.
Abilita il driver CSI Filestore su un nuovo cluster
Per abilitare il driver CSI Filestore durante la creazione di un nuovo cluster standard, segui questi passaggi con l'interfaccia a riga di comando Google Cloud o la console Google Cloud.
gcloud
gcloud container clusters create CLUSTER_NAME \
--addons=GcpFilestoreCsiDriver \
--cluster-version=VERSION
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del tuo cluster.VERSION
: il numero di versione GKE. Devi selezionare un numero di versione supportato per utilizzare questa funzionalità. Consulta [#requirements] per i dettagli. In alternativa, puoi utilizzare il flag--release-channel
e specificare un canale di rilascio.
Console
Vai alla pagina Google Kubernetes Engine nella console Google Cloud.
Fai clic su add_box Crea.
Scegli la modalità cluster Standard, quindi fai clic su Configura.
Configura il cluster in base alle tue esigenze.
Nel riquadro di navigazione, in Cluster, fai clic su Funzionalità.
Seleziona la casella di controllo Abilita driver CSI Filestore.
Fai clic su Crea.
Se vuoi utilizzare Filestore su una rete VPC condiviso, consulta Abilita il driver CSI Filestore su un nuovo cluster con VPC condiviso.
Dopo aver abilitato il driver CSI di Filestore, puoi utilizzarlo in Kubernetes
volumi utilizzando il nome del driver e del provisioner: filestore.csi.storage.gke.io
.
Abilita il driver CSI Filestore su un cluster esistente
Per abilitare il driver CSI Filestore nei cluster esistenti, utilizza Google Cloud CLI o la console Google Cloud.
Per abilitare il driver su un cluster esistente:
gcloud
gcloud container clusters update CLUSTER_NAME \
--update-addons=GcpFilestoreCsiDriver=ENABLED
Sostituisci CLUSTER_NAME
con il nome della campagna esistente
in un cluster Kubernetes.
Console
Vai alla pagina Google Kubernetes Engine nella console Google Cloud.
Nell'elenco dei cluster, fai clic sul nome del cluster da modificare.
In Funzionalità, accanto al campo Driver CSI Filestore, fai clic su edit Modifica il driver CSI Filestore.
Seleziona la casella di controllo Abilita driver CSI Filestore.
Fai clic su Salva modifiche.
Disattivare il driver CSI Filestore
Puoi disabilitare il driver CSI Filestore su un modello Autopilot esistente Cluster standard mediante Google Cloud CLI o la console Google Cloud.
gcloud
gcloud container clusters update CLUSTER_NAME \
--update-addons=GcpFilestoreCsiDriver=DISABLED \
--region REGION
Sostituisci i seguenti valori:
CLUSTER_NAME
: il nome del per il cluster esistente.REGION
: la regione del cluster (ad esempious-central1
).
Console
Nella console Google Cloud, vai al menu Google Kubernetes Engine.
Nell'elenco dei cluster, fai clic sul nome del cluster da modificare.
In Funzionalità, accanto al campo Driver CSI Filestore, fai clic su edit Modifica il driver CSI Filestore.
Deseleziona la casella di controllo Abilita driver CSI Filestore.
Fai clic su Salva modifiche.
Accedi alle istanze Filestore preesistenti utilizzando il driver CSI Filestore
Questa sezione descrive il processo tipico per l'utilizzo di un oggetto Kubernetes per accedere a istanze Filestore preesistenti utilizzando il driver CSI Filestore in GKE:
Crea un PersistentVolume e un PersistentVolumeClaim per accedere all'istanza
Crea un file manifest come quello mostrato nell'esempio seguente e denomina il file manifest.
preprov-filestore.yaml
:apiVersion: v1 kind: PersistentVolume metadata: name: PV_NAME spec: storageClassName: "" capacity: storage: 1Ti accessModes: - ReadWriteMany persistentVolumeReclaimPolicy: Retain volumeMode: Filesystem csi: driver: filestore.csi.storage.gke.io volumeHandle: "modeInstance/FILESTORE_INSTANCE_LOCATION/FILESTORE_INSTANCE_NAME/FILESTORE_SHARE_NAME" volumeAttributes: ip: FILESTORE_INSTANCE_IP volume: FILESTORE_SHARE_NAME --- kind: PersistentVolumeClaim apiVersion: v1 metadata: name: podpvc spec: accessModes: - ReadWriteMany storageClassName: "" volumeName: PV_NAME resources: requests: storage: 1Ti
Per creare le risorse
PersistentVolumeClaim
ePersistentVolume
basate nel file manifestpreprov-filestore.yaml
, esegui questo comando:kubectl apply -f preprov-filestore.yaml
Quindi, passa alla creazione di un deployment che utilizza il volume.
crea un volume utilizzando il driver CSI Filestore
Le seguenti sezioni descrivono il processo tipico per l'utilizzo di un oggetto Kubernetes volume supportato da un driver CSI Filestore in GKE:
- Creare una classe di archiviazione
- Utilizza un oggetto PersistentVolumeClaim per accedere al volume
- Crea un deployment che utilizza il volume
Creazione di un oggetto StorageClass
Dopo aver abilitato il driver CSI Filestore, GKE installa automaticamente le seguenti classi di archiviazione StorageClasses per il provisioning delle istanze Filestore:
zonal-rwx
, utilizzando il livello Filestore zonale. Disponibile solo per l'intervallo di capacità più elevato (da 10 a 100 TiB).enterprise-rwx
, utilizzando il livello Filestore Enterprise, in cui ogni PersistentVolume di Kubernetes viene mappato a un'istanza Filestore.enterprise-multishare-rwx
, utilizzando il livello Enterprise di Filestore, dove ogni PersistentVolume Kubernetes mappa a una quota di una determinata istanza Filestore. Per saperne di più, vedi Condivisioni multiple di Filestore per Google Kubernetes Engine.standard-rwx
, utilizzando il livello di servizio HDD base Filestore.premium-rwx
, utilizzando Livello di servizio SSD di base Filestore.
Ogni oggetto StorageClass è disponibile solo nei cluster GKE in esecuzione i rispettivi numeri di versione GKE supportati. Per un elenco di versioni supportate per ogni livello di servizio, vedi Requisiti.
Puoi trovare il nome del dispositivo StorageClass
installato eseguendo questo comando
:
kubectl get sc
Puoi anche installare un'istanza StorageClass
diversa che utilizza il driver CSI Filestore
aggiungendo filestore.csi.storage.gke.io
nel campo provisioner
.
Filestore deve sapere su quale rete creare nuova istanza. Le classi StorageClass installate automaticamente utilizzano la rete predefinita creata per i cluster GKE. Se lo hai eliminato sulla rete o se vuoi usare una rete diversa, devi creare un nuovo oggetto come descritto nei passaggi successivi. In caso contrario, StorageClass non funzionerà.
Salva il seguente manifest come
filestore-example-class.yaml
:apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: filestore-example provisioner: filestore.csi.storage.gke.io volumeBindingMode: Immediate allowVolumeExpansion: true parameters: tier: standard network: default
Nel file manifest, considera la seguente configurazione di parametri:
- L'impostazione di
volumeBindingMode
suImmediate
consente il provisioning del volume per iniziare immediatamente. Questo è possibile perché Filestore sono accessibili da qualsiasi zona. Di conseguenza, GKE non serve conoscere la zona in cui è pianificato il pod, a differenza il disco permanente di Compute Engine. Se impostato suWaitForFirstConsumer
, GKE avvia il provisioning solo dopo la pianificazione del pod. Per ulteriori informazioni, vedi VolumeBindingMode. - Qualsiasi livello Filestore supportato
può essere specificato nel parametro
tier
(ad es.BASIC_HDD
,BASIC_SSD
,ZONAL
oENTERPRISE
). - Il parametro
network
può essere utilizzato durante il provisioning di istanze Filestore su istanze non predefinite VPC. I VPC non predefiniti richiedono regole firewall speciali da configurare.
- L'impostazione di
Per creare una risorsa
StorageClass
basata sufilestore-example-class.yaml
manifest, esegui questo comando:kubectl create -f filestore-example-class.yaml
Se vuoi utilizzare Filestore su una rete VPC condiviso, consulta Crea un oggetto StorageClass quando utilizzi il driver CSI Filestore con VPC condiviso.
Usa un oggetto PersistentVolumeClaim per accedere al volume
Puoi creare una risorsa PersistentVolumeClaim
che fa riferimento alla
StorageClass
del driver CSI Filestore.
Puoi utilizzare un'istanza StorageClass
preinstallata o personalizzata.
Il seguente file manifest di esempio crea un elemento PersistentVolumeClaim
che
fa riferimento al StorageClass
denominato filestore-example
.
Salva il seguente file manifest come
pvc-example.yaml
:kind: PersistentVolumeClaim apiVersion: v1 metadata: name: podpvc spec: accessModes: - ReadWriteMany storageClassName: filestore-example resources: requests: storage: 1Ti
Per creare una risorsa
PersistentVolume
basata supvc-example.yaml
manifest, esegui questo comando:kubectl create -f pvc-example.yaml
Crea un deployment che utilizza il volume
Il manifest di deployment di esempio seguente utilizza l'oggetto PersistentVolume
risorsa denominata pvc-example.yaml
.
Più pod possono condividere la stessa risorsa PersistentVolumeClaim
.
Salva il seguente manifest come
filestore-example-deployment.yaml
:apiVersion: apps/v1 kind: Deployment metadata: name: web-server-deployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx volumeMounts: - mountPath: /usr/share/nginx/html name: mypvc volumes: - name: mypvc persistentVolumeClaim: claimName: podpvc --- kind: PersistentVolumeClaim apiVersion: v1 metadata: name: podpvc spec: accessModes: - ReadWriteMany storageClassName: filestore-example resources: requests: storage: 1Ti
Per creare un deployment basato su
filestore-example-deployment.yaml
manifest, esegui questo comando:kubectl apply -f filestore-example-deployment.yaml
Verifica che il deployment sia stato creato correttamente:
kubectl get deployment
Il completamento del provisioning delle istanze Filestore potrebbe richiedere un po' di tempo. In precedenza, i deployment non segnaleranno lo stato
READY
. Puoi controllare Monitora l'avanzamento monitorando lo stato della PVC mediante il comando seguente:kubectl get pvc
Dovresti vedere che il PVC raggiunge lo stato
BOUND
, quando il volume viene completato il provisioning.
Etichetta istanze Filestore
Puoi utilizzare le etichette per raggruppare le istanze correlate e archiviare i metadati relativi a un'istanza. Un'etichetta è una coppia chiave-valore che ti aiuta per organizzare le istanze Filestore. Puoi allegare un'etichetta a ciascun e poi filtrarle in base alle etichette.
Puoi fornire le etichette utilizzando la chiave labels
in StorageClass.parameters
.
Un'istanza Filestore può essere etichettata con informazioni su
PersistentVolumeClaim
/PersistentVolume
: l'istanza è stata creata
. Le chiavi e i valori delle etichette personalizzate devono essere conformi all'etichetta
convenzione di denominazione.
Consulta l'esempio di classe di archiviazione Kubernetes per applicare etichette personalizzate all'istanza Filestore.
Utilizzare fsgroup con i volumi Filestore
Kubernetes usa fsGroup
per modificare le autorizzazioni e la proprietà del volume in
corrispondere a un fsGroup
richiesto dall'utente nel pod
SecurityContext.
Un fsGroup
è un gruppo supplementare che si applica a tutti i container in un pod.
Puoi
applicare un fsgroup
ai volumi di cui è stato eseguito il provisioning
dal driver CSI di Filestore.
Configura le regole di accesso IP con i volumi Filestore
Filestore supporta le regole di controllo degli accessi basato su IP per i volumi. Questa funzionalità è disponibile nei cluster GKE in esecuzione versione 1.29.5 o successiva.
Questa funzionalità consente agli amministratori di specificare quali intervalli di indirizzi IP autorizzati ad accedere a un'istanza Filestore di cui è stato eseguito il provisioning dinamico con GKE. Questo migliora la sicurezza, limitando l'accesso ai soli utenti autorizzati soprattutto in scenari in cui l'intervallo IP del cluster GKE è troppo ampia, esponendo potenzialmente l'istanza Filestore a istanze utenti o applicazioni.
Queste regole possono essere configurate direttamente tramite l'API Filestore oppure
tramite il driver CSI Filestore quando viene creato un volume. Puoi fornire il parametro
selezionata in formato JSON in StorageClass utilizzando
Parametro nfs-export-options-on-create
.
Il seguente manifest di esempio mostra come specificare la configurazione:
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: filestore-example
provisioner: filestore.csi.storage.gke.io
volumeBindingMode: Immediate
allowVolumeExpansion: true
parameters:
tier: "enterprise"
nfs-export-options-on-create: '[
{
"accessMode": "READ_WRITE",
"ipRanges": [
"10.0.0.0/24"
],
"squashMode": "ROOT_SQUASH",
"anonUid": "1003",
"anonGid": "1003"
},
{
"accessMode": "READ_WRITE",
"ipRanges": [
"10.0.0.0/28"
],
"squashMode": "NO_ROOT_SQUASH"
}
]'
Opzioni di sicurezza
Le regole di accesso IP Filestore semplificano la configurazione dell'archiviazione condivisa dei file delle autorizzazioni per i tuoi carichi di lavoro GKE. Tuttavia, capire come gestisce la proprietà e l'accesso ai file richiedono la conoscenza di alcuni concetti chiave:
NFS e mappature utente NFS (Network File System) è il protocollo utilizzato da Filestore. Funziona mappando gli utenti sui sistemi client (il tuo cluster GKE pod) agli utenti sul server Filestore. Se un file sul server è di proprietà di con l'ID utente 1003 e un client si connette con l'ID utente 1003, avrà accesso al file.
Root squash e
anonUid
:Root Squashing
ROOT_SQUASH
è una funzionalità di sicurezza che impedisce di accesso all'istanza Filestore con privilegi root completi. Quando la funzionalità di compressione dell'utente root è attiva, gli utenti root sui sistemi client vengono mappati a un utente non privilegiato specificato dall'impostazioneanonUid
.Nessun root Squashing (
NO_ROOT_SQUASH
) consente ai client di accedere Istanza Filestore con privilegi root completi, pratico per ma meno sicura per le normali operazioni.
Configurazione e autorizzazioni iniziali: per impostazione predefinita, una nuova istanza Filestore di proprietà dell'utente root. Se attivi root squash senza prima impostando le autorizzazioni per altri utenti, perderai l'accesso. Per questo motivo, è necessario almeno una regola di esportazione NFS con
NO_ROOT_SQUASH
per configurare inizialmente l'accesso per altri utenti e gruppi.
Consigli
- Configurazione iniziale: inizia sempre con almeno una regola di esportazione NFS che specifichi un intervallo di amministratori con autorizzazioni
READ_WRITE
e consenta l'accessoNO_ROOT_SQUASH
. Utilizza questo accesso per creare directory, impostare autorizzazioni e assegnare la proprietà in base alle esigenze. - Sicurezza:attiva root squashing (
ROOT_SQUASH
) per migliorare la sicurezza. Tieni presente che dopo aver creato un volume, puoi modificare solo le regole di accesso attraverso l'API Filestore. - Accesso condiviso:usa
fsGroup
nella sicurezza del pod contesti per gestire la proprietà dei volumi condivisi da parte di un gruppo. Assicurati di non sovrapporre con la modalitàROOT_SQUASH
. In questo modo viene restituito un messaggio di erroreAccess denied
.
Utilizzare Filestore con VPC condiviso
Questa sezione illustra come utilizzare un'istanza Filestore su una Rete VPC condiviso da un progetto di servizio.
Configura un cluster con un VPC condiviso
Per configurare i cluster con una rete VPC condiviso, segui questi passaggi:
- Crea un progetto host e di servizio.
- Abilita l'API Google Kubernetes Engine su progetti host e di servizio.
- Nel progetto host, crea una rete e una subnet.
- Abilita il VPC condiviso nel progetto host.
- Nel progetto host, concedi l'associazione del ruolo utente
HostServiceAgent
per l'account di servizio GKE del progetto di servizio. - Abilita l'accesso privato ai servizi sulla VPC condiviso condivisa.
Abilita il driver CSI Filestore su un nuovo cluster con VPC condiviso
Per abilitare il driver CSI Filestore su un nuovo cluster con VPC condiviso, segui questi passaggi:
Verifica le subnet utilizzabili e gli intervalli secondari. Quando crei un cluster, devi specificare una subnet e gli intervalli di indirizzi IP secondari da utilizzare di pod e servizio del cluster.
gcloud container subnets list-usable \ --project=SERVICE_PROJECT_ID \ --network-project=HOST_PROJECT_ID
L'output è simile al seguente:
PROJECT REGION NETWORK SUBNET RANGE HOST_PROJECT_ID us-central1 shared-net tier-1 10.0.4.0/22 ┌──────────────────────┬───────────────┬─────────────────────────────┐ │ SECONDARY_RANGE_NAME │ IP_CIDR_RANGE │ STATUS │ ├──────────────────────┼───────────────┼─────────────────────────────┤ │ tier-1-pods │ 10.4.0.0/14 │ usable for pods or services │ │ tier-1-services │ 10.0.32.0/20 │ usable for pods or services │ └──────────────────────┴───────────────┴─────────────────────────────┘
Creare un cluster GKE. I seguenti esempi mostrano come puoi usa gcloud CLI per creare un modello Autopilot o Standard configurato per il VPC condiviso. Gli esempi seguenti utilizzano i nomi di reti, subnet e intervalli Creazione di una rete e due subnet.
Autopilot
gcloud container clusters create-auto tier-1-cluster \ --project=SERVICE_PROJECT_ID \ --region=COMPUTE_REGION \ --network=projects/HOST_PROJECT_ID/global/networks/NETWORK_NAME \ --subnetwork=projects/HOST_PROJECT_ID/regions/COMPUTE_REGION/subnetworks/SUBNET_NAME \ --cluster-secondary-range-name=tier-1-pods \ --services-secondary-range-name=tier-1-services
Standard
gcloud container clusters create tier-1-cluster \ --project=SERVICE_PROJECT_ID \ --zone=COMPUTE_REGION \ --enable-ip-alias \ --network=projects/HOST_PROJECT_ID/global/networks/NETWORK_NAME \ --subnetwork=projects/HOST_PROJECT_ID/regions/COMPUTE_REGION/subnetworks/SUBNET_NAME \ --cluster-secondary-range-name=tier-1-pods \ --services-secondary-range-name=tier-1-services \ --addons=GcpFilestoreCsiDriver
Creare regole firewall per consentire la comunicazione tra nodi, pod servizi nel tuo cluster. L'esempio seguente mostra come creare una regola firewall denominata
my-shared-net-rule-2
.gcloud compute firewall-rules create my-shared-net-rule-2 \ --project HOST_PROJECT_ID \ --network=NETWORK_NAME \ --allow=tcp,udp \ --direction=INGRESS \ --source-ranges=10.0.4.0/22,10.4.0.0/14,10.0.32.0/20
Nell'esempio, i valori IP degli intervalli di origine provengono dal passaggio precedente in cui hai verificato le subnet utilizzabili e gli intervalli secondari.
Crea un oggetto StorageClass quando utilizzi il driver CSI Filestore con VPC condiviso
L'esempio seguente mostra come creare un StorageClass quando utilizzi il driver CSI Filestore con VPC condiviso:
cat <<EOF | kubectl apply -f -
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: filestore-sharedvpc-example
provisioner: filestore.csi.storage.gke.io
parameters:
network: "projects/HOST_PROJECT_ID/global/networks/SHARED_VPC_NAME"
connect-mode: PRIVATE_SERVICE_ACCESS
reserved-ip-range: RESERVED_IP_RANGE_NAME
allowVolumeExpansion: true
EOF
Sostituisci quanto segue:
HOST_PROJECT_ID
: l'ID o il nome del progetto host di sulla rete VPC condiviso.SHARED_VPC_NAME
: il nome della rete VPC condivisa che hai creato in precedenza.RESERVED_IP_RANGE_NAME
: il nome dello specifico di indirizzi IP riservati in cui eseguire il provisioning dell'istanza Filestore. Questo campo è facoltativo. Se viene specificato un intervallo di indirizzi IP riservati, deve essere un di indirizzi IP esterni invece di un valore CIDR diretto.
Se vuoi eseguire il provisioning di un volume supportato da Filestore multishares su Per i cluster GKE che eseguono la versione 1.23 o successive, consulta Ottimizza lo spazio di archiviazione con le multishare Filestore per GKE.
Riconnetti i volumi con una singola condivisione Filestore
Se utilizzi Filestore con HDD di base, SSD di base o (condivisione singola), puoi seguire queste istruzioni per riconnettere il tuo l'istanza Filestore esistente ai carichi di lavoro GKE.
Trova i dettagli dell'istanza Filestore di cui è stato eseguito il pre-provisioning seguendo le istruzioni riportate in Ottenere informazioni su un'istanza specifica.
Esegui di nuovo il deployment della specifica PersistentVolume. Nel campo
volumeAttributes
, modifica i seguenti campi per utilizzare gli stessi valori di Filestore nel passaggio 1:ip
: modifica questo valore nell'istanza Filestore di cui è stato eseguito il pre-provisioning Indirizzo IP.volume
: modifica questo valore in base al nome della condivisione dell'istanza Filestore pre-provisioned.
Esegui di nuovo il deployment della specifica PersistentVolumeClaim. In
volumeName
assicurati di fare riferimento allo stesso nome PersistentVolume del passaggio 2.Controlla lo stato dell'associazione di PersistentVolumeClaim e PersistentVolume eseguendo
kubectl get pvc
.Riapplica la specifica del pod e assicurati che il pod possa accedere nuovamente alla condivisione Filestore.
Passaggi successivi
- Scopri come eseguire il deployment di un carico di lavoro Filestore stateful su GKE.
- Scopri come condividere un'istanza Enterprise di Filestore con più volumi permanenti.
- Scopri come utilizzare l'espansione del volume.
- Scopri come utilizzare gli snapshot del volume.
- Scopri di più sul driver CSI su GitHub.