Sfondo
Per natura, i pod sono temporanei. Ciò significa che GKE distrugge lo stato e il valore archiviati in un pod quando questo viene eliminato, eliminato o ripianificato.
In qualità di operatore di applicazioni, potresti voler mantenere i carichi di lavoro stateful. Alcuni esempi di questi carichi di lavoro sono le applicazioni che elaborano articoli di WordPress, le app di messaggistica e le app che elaborano operazioni di machine learning.
Utilizzando Filestore su GKE, puoi eseguire le seguenti operazioni:
- Esegui il deployment di carichi di lavoro stateful scalabili.
- Consenti a più pod di avere
ReadWriteMany
comeaccessMode
, in modo che più pod possano leggere e scrivere contemporaneamente nello stesso spazio di archiviazione. - Configura GKE in modo da montare i volumi in più pod contemporaneamente.
- Mantieni lo spazio di archiviazione quando i pod vengono rimossi.
- Consenti ai pod di condividere i dati e di scalare facilmente.
Obiettivi
Questo tutorial è rivolto agli operatori di applicazioni e ad altri utenti che vogliono configurare un carico di lavoro stateful scalabile su GKE utilizzando PVC e NFS.Questo tutorial illustra i seguenti passaggi:
- Creare un cluster GKE.
- Configura l'archiviazione di file gestiti con Filestore utilizzando CSI.
- Crea un pod del lettore e del writer.
- Esponi il pod del lettore a un bilanciatore del carico del servizio e accedi.
- Esegui lo scale up del writer.
- Accedere ai dati dal pod dello scrittore.
Costi
Questo tutorial utilizza i seguenti componenti fatturabili di Google Cloud:Utilizza il Calcolatore prezzi per generare una stima dei costi in base all'utilizzo previsto.
Al termine di questo tutorial, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, vedi Pulizia.
Per seguire le indicazioni dettagliate per questa attività direttamente nella console Google Cloud, fai clic su Procedura guidata:
Prima di iniziare
Configura il progetto
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, click Create project to begin creating a new Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Compute Engine, GKE, and Filestore APIs.
-
In the Google Cloud console, on the project selector page, click Create project to begin creating a new Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Compute Engine, GKE, and Filestore APIs.
Configura impostazioni predefinite per Google Cloud CLI
Nella console Google Cloud, avvia un'istanza Cloud Shell:
Apri Cloud ShellScarica il codice sorgente di questa app di esempio:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples cd kubernetes-engine-samples/databases/stateful-workload-filestore
Imposta le variabili di ambiente predefinite:
gcloud config set project PROJECT_ID gcloud config set compute/region COMPUTE_REGION gcloud config set compute/zone COMPUTE_ZONE gcloud config set filestore/zone COMPUTE_ZONE gcloud config set filestore/region COMPUTE_REGION
Sostituisci i seguenti valori:
- PROJECT_ID: il tuo ID progetto Google Cloud.
- COMPUTE_REGION: la regione di Compute Engine.
- COMPUTE_ZONE: la zona Compute Engine.
Crea un cluster GKE
Crea un cluster GKE denominato
stateful-cluster
:gcloud container clusters create-auto stateful-cluster --region COMPUTE_REGION
Una volta creato il cluster, il risultato è simile al seguente:
gcloud container clusters describe stateful-cluster NAME: stateful-cluster LOCATION: northamerica-northeast2 MASTER_VERSION: 1.21.11-gke.1100 MASTER_IP: 34.130.255.70 MACHINE_TYPE: e2-medium NODE_VERSION: 1.21.11-gke.1100 NUM_NODES: 3 STATUS: RUNNING
Dove
STATUS
èRUNNING
perstateful-cluster
.
Configura l'archiviazione di file gestiti con Filestore utilizzando CSI
GKE fornisce un modo per eseguire automaticamente il deployment e gestire il driver CSI Filestore Filestore nei tuoi cluster.
L'utilizzo di Filestore CSI consente di creare o eliminare in modo dinamico le istanze Filestore e di utilizzarle nei carichi di lavoro Kubernetes con un StorageClass
o Deployment
.
Puoi creare una nuova istanza Filestore creando una PVC che esegue il provisioning dinamico di un'istanza Filestore e del PV oppure accedere alle istanze Filestore pre-provisionate nei carichi di lavoro Kubernetes.
Nuova istanza
Crea la classe di archiviazione
volumeBindingMode
è impostato suImmediate
, il che consente di avviare immediatamente il provisioning del volume.tier
è impostato sustandard
per velocizzare la creazione dell'istanza Filestore. Se hai bisogno di una maggiore quantità di spazio di archiviazione NFS disponibile, di snapshot per il backup dei dati, di replica dei dati su più zone e di altre funzionalità a livello aziendale, imposta invecetier
suenterprise
. Nota: il criterio di rivendicazione per le visite proprietarie create dinamicamente è impostato suDelete
per impostazione predefinita sereclaimPolicy
inStorageClass
non è impostato.
Crea la risorsa
StorageClass
:kubectl create -f filestore-storageclass.yaml
Verifica che la classe di archiviazione sia stata creata:
kubectl get sc
L'output è simile al seguente:
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE filestore-sc filestore.csi.storage.gke.io Delete Immediate true 94m
Istanza preprovisionata
Crea la classe di archiviazione
Se volumeBindingMode
è impostato su Immediate
, consente di iniziare immediatamente il provisioning del volume.
Crea la risorsa
StorageClass
:kubectl create -f preprov-storageclass.yaml
Verifica che la classe di archiviazione sia stata creata:
kubectl get sc
L'output è simile al seguente:
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE filestore-sc filestore.csi.storage.gke.io Delete Immediate true 94m
crea un volume permanente per l'istanza Filestore
Verifica che l'istanza Filestore preesistente sia pronta:
gcloud filestore instances list
L'output è simile al seguente, dove il valore
STATE
èREADY
:INSTANCE_NAME: stateful-filestore LOCATION: us-central1-a TIER: ENTERPRISE CAPACITY_GB: 1024 FILE_SHARE_NAME: statefulpath IP_ADDRESS: 10.109.38.98 STATE: READY CREATE_TIME: 2022-04-05T18:58:28
Prendi nota di
INSTANCE_NAME
,LOCATION
,FILE_SHARE_NAME
eIP_ADDRESS
dell'istanza Filestore.Compila le variabili di console dell'istanza Filestore:
INSTANCE_NAME=INSTANCE_NAME LOCATION=LOCATION FILE_SHARE_NAME=FILE_SHARE_NAME IP_ADDRESS=IP_ADDRESS
Sostituisci le variabili segnaposto con le variabili della console ottenute sopra nel file
preprov-pv.yaml
:sed "s/<INSTANCE_NAME>/$INSTANCE_NAME/" preprov-pv.yaml > changed.yaml && mv changed.yaml preprov-pv.yaml sed "s/<LOCATION>/$LOCATION/" preprov-pv.yaml > changed.yaml && mv changed.yaml preprov-pv.yaml sed "s/<FILE_SHARE_NAME>/$FILE_SHARE_NAME/" preprov-pv.yaml > changed.yaml && mv changed.yaml preprov-pv.yaml sed "s/<IP_ADDRESS>/$IP_ADDRESS/" preprov-pv.yaml > changed.yaml && mv changed.yaml preprov-pv.yaml
Crea il PV
kubectl apply -f preprov-pv.yaml
Verifica che il
STATUS
dell'oggetto PV sia impostato suBound
:kubectl get pv
L'output è simile al seguente:
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE fileserver 1Ti RWX Delete Bound default/fileserver filestore-sc 46m
Usa un oggetto PersistentVolumeClaim per accedere al volume
Il seguente manifest pvc.yaml
fa riferimento al file StorageClass
del driver CSI Filestore denominato filestore-sc
.
Per fare in modo che più pod siano in lettura e scrittura nel volume,
accessMode
è impostato su ReadWriteMany
.
Esegui il deployment della PVC:
kubectl create -f pvc.yaml
Verifica che la PVC sia stata creata:
kubectl get pvc
L'output è simile al seguente:
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE fileserver Bound pvc-aadc7546-78dd-4f12-a909-7f02aaedf0c3 1Ti RWX filestore-sc 92m
Verifica che l'istanza Filestore appena creata sia pronta:
gcloud filestore instances list
L'output è simile al seguente:
INSTANCE_NAME: pvc-5bc55493-9e58-4ca5-8cd2-0739e0a7b68c LOCATION: northamerica-northeast2-a TIER: STANDARD CAPACITY_GB: 1024 FILE_SHARE_NAME: vol1 IP_ADDRESS: 10.29.174.90 STATE: READY CREATE_TIME: 2022-06-24T18:29:19
Crea un pod del lettore e del writer
Crea il pod del lettore
Il pod del lettore leggerà il file che viene scritto dai pod degli writer. I pod del lettore vedranno a che ora e quale replica del pod dello scrittore ha scritto nel file.
Il pod del lettore leggerà dal percorso /usr/share/nginx/html
, che è condiviso tra tutti i pod.
Esegui il deployment del pod del lettore:
kubectl apply -f reader-fs.yaml
Verifica che le repliche del lettore siano in esecuzione con una query sull'elenco dei pod:
kubectl get pods
L'output è simile al seguente:
NAME READY STATUS RESTARTS AGE reader-66b8fff8fd-jb9p4 1/1 Running 0 3m30s
Crea il pod del writer
Il pod dello writer scriverà periodicamente in un file condiviso a cui possono accedere altri pod dello strumento di scrittura e dei lettori. Il pod dello scrittore registra la sua presenza scrivendo il nome host nel file condiviso.
L'immagine utilizzata per il pod di scrittura è un'immagine personalizzata di Alpine Linux, utilizzata per utilità e applicazioni di produzione. Include una
lo script indexInfo.html
che otterrà i metadati dell'autore più recente,
e il conteggio di tutti gli autori unici e le scritture totali.
Per questo tutorial, il pod dello scrittore scrive ogni 30 secondi nel percorso /html/index.html
. Modifica il numero di sleep
per avere una diversa frequenza di scrittura.
Esegui il deployment del pod del writer:
kubectl apply -f writer-fs.yaml
Verifica che i pod di scrittura siano in esecuzione con una query sull'elenco dei pod:
kubectl get pods
L'output è simile al seguente:
NAME READY STATUS RESTARTS AGE reader-66b8fff8fd-jb9p4 1/1 Running 0 3m30s writer-855565fbc6-8gh2k 1/1 Running 0 2m31s writer-855565fbc6-lls4r 1/1 Running 0 2m31s
Esponi il carico di lavoro del lettore a un bilanciatore del carico del servizio e accedi
Per esporre un carico di lavoro all'esterno del cluster, crea un servizio di tipo
LoadBalancer
. Questo tipo di servizio crea un bilanciatore del carico esterno con un indirizzo IP raggiungibile tramite internet.
Crea un servizio di tipo
LoadBalancer
denominatoreader-lb
:kubectl create -f loadbalancer.yaml
Monitora il deployment per verificare che GKE assegni un
EXTERNAL-IP
per il servizioreader-lb
:kubectl get svc --watch
Quando
Service
è pronto, la colonnaEXTERNAL-IP
mostra l'indirizzo IP pubblico del bilanciatore del carico:NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.8.128.1 <none> 443/TCP 2d21h reader-lb LoadBalancer 10.8.131.79 34.71.232.122 80:32672/TCP 2d20h
Premi Ctrl+C per terminare la procedura di visualizzazione.
Utilizza un browser web per accedere all'
EXTERNAL-IP
assegnato al bilanciatore del carico. La pagina viene aggiornata ogni 30 secondi. Più sono i pod di autori e più breve è la frequenza, più voci verranno visualizzate.
Per ulteriori dettagli sul servizio di bilanciamento del carico, consulta loadbalancer.yaml
.
Fai lo scale up del writer
Poiché l'oggetto PV accessMode
è stato impostato su ReadWriteMany
, GKE può fare lo scale up del numero di pod in modo che più pod writer possano scrivere in questo volume condiviso (oppure più lettori possono leggere per leggerli).
Esegui lo scale up di
writer
a cinque repliche:kubectl scale deployment writer --replicas=5
L'output è simile al seguente:
deployment.extensions/writer scaled
Verifica il numero di repliche in esecuzione:
kubectl get pods
L'output è simile al seguente:
NAME READY STATUS RESTARTS AGE reader-66b8fff8fd-jb9p4 1/1 Running 0 11m writer-855565fbc6-8dfkj 1/1 Running 0 4m writer-855565fbc6-8gh2k 1/1 Running 0 10m writer-855565fbc6-gv5rs 1/1 Running 0 4m writer-855565fbc6-lls4r 1/1 Running 0 10m writer-855565fbc6-tqwxc 1/1 Running 0 4m
Utilizza un browser web per accedere di nuovo al
EXTERNAL-IP
assegnato al bilanciatore del carico.
A questo punto, hai configurato e scalato il cluster per supportare cinque pod writer con stato. Dove più pod writer scrivono nello stesso file contemporaneamente. È anche possibile fare facilmente lo scale up dei pod dei lettori.
(Facoltativo) Accedi ai dati dal pod di autori
Questa sezione illustra come utilizzare un'interfaccia a riga di comando per accedere a un pod del lettore o dello scrittore. Puoi vedere il componente condiviso su cui sta scrivendo lo scrittore e da cui sta leggendo il lettore.
Ottieni il nome del pod del writer:
kubectl get pods
L'output è simile al seguente:
NAME READY STATUS RESTARTS AGE writer-5465d65b46-7hxv4 1/1 Running 0 20d
Prendi nota del nome host di un pod del writer (esempio:
writer-5465d65b46-7hxv4
).Esegui questo comando per accedere al pod del writer:
kubectl exec -it WRITER_HOSTNAME -- /bin/sh
Visualizza il componente condiviso nel file
indexData.html
:cd /html cat indexData.html
Cancella il file
indexData.html
:echo '' > indexData.html
Aggiorna il browser web che ospita l'indirizzo
EXTERNAL-IP
per vedere la modifica.Esci dall'ambiente:
exit
Esegui la pulizia
Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.
Elimina il progetto
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
Elimina le singole risorse
Elimina il servizio bilanciatore del carico:
kubectl delete service reader-lb
Attendi che il bilanciatore del carico di cui è stato eseguito il provisioning per il servizio per il lettore venga eliminato
Verifica che l'elenco restituisca
Listed 0 items
:gcloud compute forwarding-rules list
Elimina i deployment
kubectl delete deployment writer kubectl delete deployment reader
Verifica che i pod vengano eliminati e che venga restituito
No resources found in default namespace.
kubectl get pods
Elimina la PVC. Verranno eliminati anche il PV e l'istanza Filestore per via del criterio di conservazione impostato su
delete
kubectl delete pvc fileserver
Elimina il cluster GKE:
gcloud container clusters delete stateful-cluster --zone=COMPUTE_ZONE
Verranno eliminate le risorse che compongono il cluster GKE, inclusi i pod di lettore e writer.
Passaggi successivi
- Scopri come eseguire il deployment di Cloud SQL con GKE
- Modalità di accesso per PV e PVC
- Scopri di più su GKE e Filestore
- Scopri di più sul driver CSI Filestore
- Come creare un'istanza Filestore
- Scopri come accedere alle istanze Filestore dai cluster GKE
- Esplora altri tutorial su Kubernetes Engine.
- Scopri di più sull'esposizione delle app mediante i servizi in GKE Esposizione delle applicazioni mediante servizi