Esegui il deployment di un cluster Redis su GKE


Questo tutorial fornisce le pratiche consigliate per creare un'applicazione stateful e eseguire l'upgrade del cluster Google Kubernetes Engine (GKE) su cui è in esecuzione l'applicazione. Questo tutorial utilizza Redis come esempio per il deployment di un'applicazione stateful, ma gli stessi concetti sono applicabili ad altri tipi di applicazioni stateful di cui è stato eseguito il deployment su GKE.

Obiettivi

Questo tutorial illustra i seguenti passaggi:

  1. Crea un cluster GKE registrato in un canale di rilascio.
  2. Crea un cluster Redis su GKE.
  3. Esegui il deployment dell'applicazione client Redis in GKE.
  4. Segui queste best practice per gli upgrade dei pool di nodi:
    1. Configura il budget di interruzione dei pod (PDB).
    2. Configura le esclusioni e il periodo di manutenzione.
    3. Configura la strategia di upgrade dei nodi su upgrade per picco o upgrade blu/verde.
  5. Testa l'applicazione.
  6. Esegui l'upgrade del cluster.
  7. Testa l'interruzione del carico di lavoro.

Il seguente diagramma mostra una visione di alto livello dell'architettura del cluster per questo tutorial:

Diagramma dell'architettura

Costi

In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi in base all'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud potrebbero essere idonei per una prova gratuita.

Al termine delle attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la sezione Pulizia.

Prima di iniziare

Configura il progetto

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, click Create project to begin creating a new Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the GKE API.

    Enable the API

  5. In the Google Cloud console, on the project selector page, click Create project to begin creating a new Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the GKE API.

    Enable the API

Impostare i valori predefiniti per Google Cloud CLI

  1. Nella console Google Cloud, avvia un'istanza Cloud Shell:
    Apri Cloud Shell

  2. Scarica il codice sorgente di questa app di esempio:

     git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
     cd kubernetes-engine-samples/quickstarts/hello-app-redis/manifests
    
  3. Imposta le variabili di ambiente predefinite:

     gcloud config set project PROJECT-ID
     gcloud config set compute/zone COMPUTE-ZONE
    

    Sostituisci i seguenti valori:

Crea un cluster GKE registrato in un canale di rilascio

Per creare il cluster GKE, completa i seguenti passaggi:

  1. Crea un cluster denominato redis-test con tre nodi:

    gcloud container clusters create redis-test \
        --num-nodes=3 \
        --release-channel regular
    

    Una volta creato il cluster, dovresti visualizzare un output simile all'esempio seguente:

      NAME: redis-test
      LOCATION: us-central1-c
      MASTER_VERSION: 1.22.10-gke.600
      MASTER_IP: 34.69.67.7
      MACHINE_TYPE: e2-medium
      NODE_VERSION: 1.22.10-gke.600
      NUM_NODES: 3
      STATUS: RUNNING
    
  2. Configura kubectl per comunicare con il cluster:

    gcloud container clusters get-credentials redis-test
    

Creare un cluster Redis su GKE

In questa sezione aggiungi un cluster Redis al cluster GKE creato in precedenza dispiegando un ConfigMap, un StatefulSet e un servizio headless.

Per creare un cluster Redis:

  1. Fai riferimento al file ConfigMap (redis-configmap.yaml) che memorizza la configurazione di Redis. Lo snippet seguente mostra gli script del probe di idoneità e del probe di attività.

    readiness.sh: |-
      #!/bin/sh
    
      pingResponse="$(redis-cli -h localhost ping)"
      if [ "$?" -eq "124" ]; then
        echo "PING timed out"
        exit 1
      fi
    
      if [ "$pingResponse" != "PONG"]; then
        echo "$pingResponse"
        exit 1
      fi
    liveness.sh: |-
      #!/bin/sh
    
      pingResponse="$(redis-cli -h localhost ping | head -n1 | awk '{print $1;}')"
      if [ "$?" -eq "124" ]; then
        echo "PING timed out"
        exit 1
      fi
    
      if [ "$pingResponse" != "PONG"] && [ "$pingResponse" != "LOADING" ] && [ "$pingResponse" != "MASTERDOWN" ]; then
        echo "$pingResponse"
        exit 1
      fi

    Gli script readiness.sh e liveness.sh utilizzano redis-cli ping per verificare se il server Redis è in esecuzione o meno. Se restituisce PONG, il server Redis è attivo e in esecuzione. Questi script verranno utilizzati in redis-cluster.yaml.

    Per scoprire di più sui parametri Redis in questo ConfigMap, consulta la sezione sui parametri di configurazione di Redis Cluster nel tutorial su Redis Cluster.

  2. Esegui il deployment del ConfigMap:

    kubectl apply -f redis-configmap.yaml
    
  3. Consulta lo snippet StatefulSet (redis-cluster.yaml) di seguito che mostra l'utilizzo del probe di idoneità e del probe di attività.

    Per scoprire come configurare i probe in Kubernetes, consulta Configurare i probe.

    startupProbe:
      periodSeconds: 5
      timeoutSeconds: 5
      successThreshold: 1
      failureThreshold: 20
      tcpSocket:
        port: redis
    livenessProbe:
      periodSeconds: 5
      timeoutSeconds: 5
      successThreshold: 1
      failureThreshold: 5
      exec:
        command: ["sh", "-c", "/probes/liveness.sh"]
    readinessProbe:
      periodSeconds: 5
      timeoutSeconds: 1
      successThreshold: 1
      failureThreshold: 5
      exec:
        command: ["sh", "-c", "/probes/readiness.sh"]

    Ti consigliamo vivamente di utilizzare i controlli di idoneità e di attività quando esegui l'upgrade dei pool di nodi; in questo modo, avrai la certezza che i pod siano pronti durante l'upgrade.

  4. Esegui il deployment del StatefulSet:

    kubectl apply -f redis-cluster.yaml
    
  5. Il servizio headless denominato redis-service.yaml è per la connessione dei nodi Redis. Il campo clusterIP è impostato su None per creare un servizio headless.

    Esegui il deployment del servizio:

    kubectl apply -f redis-service.yaml
    
  6. Attendi circa due minuti e verifica che tutti i pod siano in esecuzione utilizzando il seguente comando:

    kubectl get pods
    

    Dovresti vedere un output simile al seguente esempio:

    NAME      READY   STATUS              RESTARTS   AGE
    redis-0   1/1     Running             0          2m29s
    redis-1   1/1     Running             0          2m8s
    redis-2   1/1     Running             0          107s
    redis-3   1/1     Running             0          85s
    redis-4   1/1     Running             0          54s
    redis-5   1/1     Running             0          23s
    
  7. Verifica che i volumi permanenti siano stati creati eseguendo il seguente comando:

    kubectl get pv
    

    Dovresti vedere un output simile al seguente esempio:

    NAME       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                  STORAGECLASS   REASON   AGE
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-5   standard                75s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-1   standard                2m59s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-3   standard                2m16s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-2   standard                2m38s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-0   standard                3m20s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-4   standard                104s
    

    In questo output, HASH rappresenta un hash associato a ogni nome del volume permanente.

Assegnare i ruoli al cluster Redis

Al termine della configurazione, assegna i ruoli al cluster Redis.

Lo script seguente ottiene gli indirizzi IP dei pod, quindi assegna i ruoli di leader e follower passando ciascun indirizzo IP del pod al comando:

#!/bin/bash
# Usage: ./roles.sh

urls=$(kubectl get pods -l app=redis -o jsonpath='{range.items[*]}{.status.podIP} ')
command="kubectl exec -it redis-0 -- redis-cli --cluster create --cluster-replicas 1 "

for url in $urls
do
    command+=$url":6379 "
done

echo "Executing command: " $command
$command

Per assegnare i ruoli al cluster Redis, completa i seguenti passaggi:

  1. Esegui lo script:

    chmod +x ./roles.sh
    ./roles.sh
    
  2. Digita yes quando richiesto.

  3. Accedi a un nodo Redis per verificarne il ruolo. Ad esempio, per verificare che redis-0 abbia un ruolo di leader, esegui il seguente comando:

    kubectl exec -it redis-0 -- redis-cli role
    

    Dovresti vedere un output simile al seguente esempio:

    1) "master"
    2) (integer) 574
    3) 1) 1) "10.28.2.3"
           2) "6379"
           3) "574"
    

Esegui il deployment dell'applicazione client Redis

Per eseguire il deployment dell'applicazione nel cluster GKE che hai creato, definisci un deployment per l'applicazione. Il file denominato app-deployment.yaml contiene la definizione di deployment per l'applicazione.

Per scoprire di più sui controlli e sulle regole di affinità dei pod utilizzati in questo deployment, consulta le best practice di GKE: progettazione e creazione di cluster ad alta disponibilità.

Per creare il deployment, completa i seguenti passaggi:

  1. Applica il deployment:

    kubectl apply -f app-deployment.yaml
    
  2. Esponi l'applicazione tramite un bilanciatore del carico:

    kubectl expose deployment hello-web \
        --type=LoadBalancer \
        --port 80 \
        --target-port 8080
    
  3. Attendi circa un minuto e recupera l'indirizzo IP esterno dell'applicazione eseguendo il seguente comando:

    kubectl get service
    

    Dall'output, copia il valore indicato nella colonna hello-web's EXTERNAL-IP:

    NAME             TYPE           CLUSTER-IP    EXTERNAL-IP    PORT(S)              AGE
    hello-web        LoadBalancer   10.13.10.55   EXTERNAL_IP   80:30703/TCP         166m
    
  4. Verifica che l'applicazione funzioni incollando EXTERNAL_IP nel browser web. Dovresti vedere un output simile al seguente esempio:

    I have been hit [1] times since deployment!
    

    Prendi nota del numero di visita. Devi utilizzarlo nella sezione Test dell'interruzione dell'applicazione.

  5. Imposta una variabile per il valore EXTERNAL_IP che hai appena copiato. Utilizza questo valore quando crei script per testare l'applicazione nella sezione successiva:

    export IP=EXTERNAL_IP
    

Configura le best practice per gli upgrade dei pool di nodi

Segui queste best practice per le applicazioni con stato per ottimizzare la disponibilità durante gli upgrade dei pool di nodi.

Configura il budget di interruzione dei pod (PDB)

Crea un budget per l'interruzione dei pod per limitare il numero di pod replicati inattivi contemporaneamente durante un'interruzione volontaria. Questa opzione è utile per le applicazioni con stato in cui è necessario un quorum per il numero di repliche disponibili durante un upgrade.

apiVersion: policy/v1
kind: PodDisruptionBudget
metadata:
  name: redis-pdb
spec:
  minAvailable: 3
  selector:
    matchLabels:
      app: redis

In una definizione PDB:

  • app specifica a quale applicazione si applica questo PDB.
  • minAvailable imposta il numero minimo di pod da rendere disponibili durante un'interruzione. Può essere un valore o una percentuale (ad es. 30%).
  • maxUnavailable imposta il numero massimo di pod che possono non essere disponibili durante un'interruzione. Può anche essere un valore o una percentuale.

Per configurare il PDB:

  1. Esegui il deployment del PDB:

    kubectl apply -f pdb-minavailable.yaml
    
  2. Verifica che il PDB sia stato creato:

    kubectl get pdb
    

Configura i periodi di manutenzione ed esclusioni

Gli upgrade automatici dei nodi semplificano la procedura di upgrade e mantengono aggiornati i nodi del cluster quando l'upgrade del piano di controllo viene eseguito per tuo conto. Questa funzione è attivata per impostazione predefinita. Per scoprire di più, consulta Upgrade automatico dei nodi.

Utilizza i periodi di manutenzione e le esclusioni di manutenzione per impostare intervalli di tempo e controllare quando può e non può essere eseguita la manutenzione nei cluster GKE:

  1. Configura un periodo di manutenzione che inizi alle 02:00 UTC del 19 agosto 2022 e termini quattro ore dopo. Questo periodo di manutenzione viene eseguito ogni giorno. Durante questo periodo, la manutenzione automatica è consentita.

    gcloud container clusters update redis-test \
       --maintenance-window-start 2022-08-19T02:00:00Z \
       --maintenance-window-end 2022-08-19T06:00:00Z \
       --maintenance-window-recurrence FREQ=DAILY
    
  2. Configura una finestra di esclusione che impedisca la manutenzione durante le festività di Capodanno. Questa esclusione dalla manutenzione utilizza l'ambito no_upgrades. Durante questo periodo, non è consentita alcuna manutenzione automatica. Per scoprire di più, consulta Ambito della manutenzione da escludere.

    gcloud container clusters update redis-test \
       --add-maintenance-exclusion-name new-year \
       --add-maintenance-exclusion-start 2022-12-26T00:00:00Z \
       --add-maintenance-exclusion-end 2023-01-02T02:00:00Z \
       --add-maintenance-exclusion-scope no_upgrades
    
  3. Verifica che il periodo di manutenzione e le esclusioni siano applicati. Cerca in maintenancePolicy:

    gcloud container clusters describe redis-test
    

Per scoprire di più, consulta Configurare periodi di manutenzione ed esclusioni.

Configurare una strategia di upgrade dei nodi

Puoi utilizzare due strategie di upgrade dei nodi per i pool di nodi nel tuo cluster GKE: upgrade blu/verde e upgrade per picchi. Per scoprire di più, consulta Strategie di upgrade dei nodi.

Upgrade blu/verde

Scegli gli upgrade blu/verdi se i carichi di lavoro sono meno tolleranti alle interruzioni e se è accettabile un aumento temporaneo dei costi dovuto a un maggiore utilizzo delle risorse.

Esegui il seguente comando per modificare i node pool attuali in base alla strategia di upgrade blue-green.

gcloud container node-pools update default-pool \
--cluster=redis-test \
--enable-blue-green-upgrade \
--zone COMPUTE-ZONE \
--node-pool-soak-duration=120s

Ai fini di questo tutorial, la durata di attesa per il node pool è impostata su due minuti per risparmiare tempo durante la fase di attesa del pool di nodi. Questa fase viene utilizzata per verificare l'integrità del carico di lavoro dopo lo svuotamento dei nodi del pool blu. Ti consigliamo di impostare la durata del tempo di attesa del pool di nodi su un'ora (3600 secondi) o su una durata più adatta all'applicazione.

Per ulteriori informazioni sulla gestione dell'allocazione dei pod, consulta Eseguire il deployment di un pod in un pool di nodi specifico e Eseguire il deployment di servizi in pool di nodi specifici.

Per ulteriori informazioni sulla configurazione degli upgrade blu/verdi, consulta Configurare gli upgrade blu/verdi.

Upgrade di incremento

Scegli gli upgrade per picchi se l'ottimizzazione dei costi è importante e se i carichi di lavoro possono tollerare un arresto graduale in meno di 60 minuti (GKE rispetta il PDB fino a 60 minuti).

Esegui il seguente comando per modificare i pool di nodi attuali in base alla strategia di upgrade di picco.

gcloud container node-pools update default-pool \
--max-surge-upgrade=1 \
--max-unavailable-upgrade=0 \
--cluster=redis-test

Con questa configurazione (maxSurge=1 e maxUnavailable=0), è possibile aggiungere un solo nodo di picco al pool di nodi durante un upgrade, pertanto è possibile eseguire l'upgrade di un solo nodo alla volta. Questa impostazione accelera i riavvii dei pod durante gli upgrade, procedendo in modo conservativo.

Per ulteriori informazioni sulla configurazione degli upgrade di sovraccarico, consulta Configurare gli upgrade di sovraccarico.

Controlla la configurazione attuale del pool di nodi:

   gcloud container node-pools describe default-pool \
   --cluster redis-test \
   --zone COMPUTE-ZONE

Per ulteriori informazioni sulla visualizzazione dei pool di nodi, consulta Visualizzare i pool di nodi in un cluster.

testa l'applicazione

In questa sezione utilizzi due script, uno che invia richieste alla tua applicazione e uno che misura il tasso di successo delle richieste. Utilizza questi script per misurare cosa succede quando esegui l'upgrade del cluster.

Per creare gli script:

  1. Passa alla directory contenente gli script:

    cd
    cd kubernetes-engine-samples/quickstarts/hello-app-redis/scripts
    
  2. Fai riferimento allo script denominato generate_load.sh che invia una richiesta di query al secondo (QPS) alla tua applicazione. Lo script salva il codice di risposta HTTP nella directory corrente in un file denominato output. Il valore di output viene utilizzato nello script che crei nel passaggio successivo.

    #!/bin/bash
    # Usage: ./generate_load.sh <IP> <QPS>
    
    IP=$1
    QPS=$2
    
    while true
      do for N in $(seq 1 $QPS)
        do curl -I -m 5 -s -w "%{http_code}\n" -o /dev/null http://${IP}/ >> output &
        done
      sleep 1
    done
  3. Fai riferimento allo script denominato print_error_rate.sh che calcola la percentuale di successo in base all'output generato da generate_load.sh.

    #!/bin/bash
    # Usage: watch ./print_error_rate.sh
    
    TOTAL=$(cat output | wc -l);
    SUCCESS=$(grep "200" output |  wc -l);
    ERROR1=$(grep "000" output |  wc -l)
    ERROR2=$(grep "503" output |  wc -l)
    ERROR3=$(grep "500" output |  wc -l)
    SUCCESS_RATE=$(($SUCCESS * 100 / TOTAL))
    ERROR_RATE=$(($ERROR1 * 100 / TOTAL))
    ERROR_RATE_2=$(($ERROR2 * 100 / TOTAL))
    ERROR_RATE_3=$(($ERROR3 * 100 / TOTAL))
    echo "Success rate: $SUCCESS/$TOTAL (${SUCCESS_RATE}%)"
    echo "App network Error rate: $ERROR1/$TOTAL (${ERROR_RATE}%)"
    echo "Resource Error rate: $ERROR2/$TOTAL (${ERROR_RATE_2}%)"
    echo "Redis Error rate: $ERROR3/$TOTAL (${ERROR_RATE_3}%)"
  4. Concedi a te stesso l'autorizzazione per eseguire gli script:

    chmod u+x generate_load.sh print_error_rate.sh
    
  5. Imposta una variabile per il numero di QPS. Questo valore viene utilizzato nello script generate_load.sh, così come la variabile impostata per EXTERNAL_IP. Ti consigliamo di impostare un valore pari a 40.

    export QPS=40
    
  6. Esegui lo script generate_load.sh per iniziare a inviare QPS:

    ./generate_load.sh $IP $QPS 2>&1
    
  7. Lascia in esecuzione lo script generate_load.sh e apri un nuovo terminale. Nel nuovo terminale, esegui lo script print_error_rate.sh per controllare il tasso di errore:

    cd
    cd kubernetes-engine-samples/quickstarts/hello-app-redis/scripts
    watch ./print_error_rate.sh
    

    Dovresti vedere una percentuale di successo del 100% e un tasso di errore dello 0% man mano che vengono eseguiti i QPS.

  8. Lascia in esecuzione entrambi gli script e apri un terzo terminale in preparazione alla sezione successiva.

Esegui l'upgrade del cluster

Per eseguire l'upgrade del cluster:

  1. Determina la versione di GKE utilizzata dal cluster redis-test:

    V=$(gcloud container clusters describe redis-test | grep "version:" | sed "s/version: //")
    echo $V
    

    Dovresti vedere un output simile all'esempio seguente: 1.22.9-gke.2000.

  2. Recupera un elenco delle versioni di Kubernetes disponibili:

    gcloud container get-server-config
    
  3. Nell'elenco delle versioni, individua la sezione validMasterVersions: e cerca la versione redis-test recuperata nel passaggio precedente. Per evitare di violare le norme relative allo sfasamento delle versioni GKE scegliendo una versione incompatibile con i nodi, copia la versione elencata immediatamente prima della versione redis-test.

  4. Esegui l'upgrade del piano di controllo del cluster alla versione selezionata e digita y quando richiesto:

    gcloud container clusters upgrade redis-test \
        --master \
        --cluster-version VERSION
    

    Sostituisci VERSION con la versione selezionata dall'elenco nel passaggio precedente.

    L'upgrade del piano di controllo richiede diversi minuti.

  5. Esegui l'upgrade dei nodi del cluster alla versione selezionata e digita y quando richiesto:

    gcloud container clusters upgrade redis-test \
        --cluster-version=VERSION \
        --node-pool=default-pool
    

    Sostituisci VERSION con la versione selezionata dall'elenco.

Interruzioni del carico di lavoro di test

In questa sezione, testerai lo stato dell'applicazione e osserverai l'interruzione del carico di lavoro.

  1. Torna alla finestra del terminale in cui è in esecuzione ./print_error_rate.sh e osserva come è cambiato il tasso di successo durante l'upgrade. Dovresti notare una lieve diminuzione della percentuale di successo e un lieve aumento del tasso di errore della rete dell'app quando i nodi vengono disattivati per l'upgrade.

    Nel campo Success rate viene indicato il numero di visite al sito web eseguite correttamente. Prendi nota di questo valore.

  2. Interrompi l'esecuzione di entrambi gli script inserendo CTRL+C nei terminali pertinenti.

  3. Torna al sito web della tua applicazione inserendo il relativo indirizzo IP (EXTERNAL_IP che hai copiato durante la sezione Esegui il deployment dell'applicazione client Redis) nel browser.

  4. Osserva il numero di visite per la tua applicazione. Il numero visualizzato dovrebbe essere uguale a:

    ORIGINAL_VISIT_NUMBER + SUCCESSFUL_VISIT_NUMBER

    dove ORIGINAL_VISIT_NUMBER è il numero registrato nel passaggio finale di Esegui il deployment dell'applicazione client Redis e SUCCESSFUL_VISIT_NUMBER è il valore registrato nel primo passaggio di questa sezione.

Esegui la pulizia

Al termine del tutorial, puoi eliminare le risorse che hai creato in modo che smettano di utilizzare la quota e di generare addebiti. Le sezioni seguenti descrivono come eliminare o disattivare queste risorse.

Elimina il progetto

Il modo più semplice per eliminare la fatturazione è eliminare il progetto che hai creato per il tutorial.

Per eliminare il progetto:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Elimina il cluster

Per eliminare il cluster creato per questo tutorial, esegui il seguente comando:

gcloud container clusters delete redis-test

Passaggi successivi