Esegui il deployment di un cluster Redis su GKE


Questo tutorial fornisce le pratiche consigliate per la creazione un'applicazione stateful e eseguendo l'upgrade del cluster Google Kubernetes Engine (GKE) che esegue l'applicazione. Questo tutorial utilizza Redis come esempio per il deployment di una ma gli stessi concetti sono applicabili ad altri tipi di di cui è stato eseguito il deployment su GKE.

Obiettivi

Questo tutorial illustra i seguenti passaggi:

  1. Crea un cluster GKE registrato in un canale di rilascio.
  2. Crea un cluster Redis su GKE.
  3. Eseguire il deployment dell'applicazione client Redis su GKE.
  4. Segui queste best practice per gli upgrade dei pool di nodi:
    1. Configura il budget di interruzione dei pod (PDB).
    2. Configura il periodo di manutenzione e le esclusioni.
    3. Configura la strategia di upgrade dei nodi scegliendo tra upgrade intensivo o upgrade blu/verde.
  5. Testa l'applicazione.
  6. Esegui l'upgrade del cluster.
  7. Testa l'interruzione del carico di lavoro.

Il seguente diagramma mostra una visione di alto livello dell'architettura del cluster per questo tutorial:

Diagramma dell'architettura

Costi

In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi basata sull'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud potrebbero essere idonei per una prova gratuita.

Una volta completate le attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la pagina Pulizia.

Prima di iniziare

Configura il progetto

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, click Create project to begin creating a new Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the GKE API.

    Enable the API

  5. In the Google Cloud console, on the project selector page, click Create project to begin creating a new Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the GKE API.

    Enable the API

Impostare i valori predefiniti per Google Cloud CLI

  1. Nella console Google Cloud, avvia un'istanza di Cloud Shell:
    Apri Cloud Shell

  2. Scarica il codice sorgente per questa app di esempio:

     git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
     cd kubernetes-engine-samples/quickstarts/hello-app-redis/manifests
    
  3. Imposta le variabili di ambiente predefinite:

     gcloud config set project PROJECT-ID
     gcloud config set compute/zone COMPUTE-ZONE
    

    Sostituisci i seguenti valori:

Crea un cluster GKE registrato in un canale di rilascio

Per creare il cluster GKE, completa i seguenti passaggi:

  1. Crea un cluster denominato redis-test con tre nodi:

    gcloud container clusters create redis-test \
        --num-nodes=3 \
        --release-channel regular
    

    Una volta creato il cluster, dovresti visualizzare un output simile all'esempio seguente:

      NAME: redis-test
      LOCATION: us-central1-c
      MASTER_VERSION: 1.22.10-gke.600
      MASTER_IP: 34.69.67.7
      MACHINE_TYPE: e2-medium
      NODE_VERSION: 1.22.10-gke.600
      NUM_NODES: 3
      STATUS: RUNNING
    
  2. Configura kubectl per comunicare con il cluster:

    gcloud container clusters get-credentials redis-test
    

Creare un cluster Redis su GKE

In questa sezione aggiungi un cluster Redis al cluster GKE creato in precedenza dispiegando un ConfigMap, un StatefulSet e un servizio headless.

Per creare un cluster Redis, completa questi passaggi:

  1. Fai riferimento al file ConfigMap (redis-configmap.yaml) in cui è archiviata la configurazione Redis. Lo snippet seguente mostra gli script del probe di idoneità e di attività.

    readiness.sh: |-
      #!/bin/sh
    
      pingResponse="$(redis-cli -h localhost ping)"
      if [ "$?" -eq "124" ]; then
        echo "PING timed out"
        exit 1
      fi
    
      if [ "$pingResponse" != "PONG"]; then
        echo "$pingResponse"
        exit 1
      fi
    liveness.sh: |-
      #!/bin/sh
    
      pingResponse="$(redis-cli -h localhost ping | head -n1 | awk '{print $1;}')"
      if [ "$?" -eq "124" ]; then
        echo "PING timed out"
        exit 1
      fi
    
      if [ "$pingResponse" != "PONG"] && [ "$pingResponse" != "LOADING" ] && [ "$pingResponse" != "MASTERDOWN" ]; then
        echo "$pingResponse"
        exit 1
      fi

    Gli script readiness.sh e liveness.sh utilizzano il ping redis-cli per verificare se il server Redis è in esecuzione. Se restituisce PONG, il server Redis è attivo e in esecuzione. Questi script verranno utilizzati in redis-cluster.yaml.

    Per saperne di più sui parametri Redis in questo ConfigMap, consulta il cluster Redis nella sezione dei parametri di configurazione Tutorial sui cluster Redis.

  2. Esegui il deployment del ConfigMap:

    kubectl apply -f redis-configmap.yaml
    
  3. Fai riferimento allo snippet StatefulSet (redis-cluster.yaml) riportato di seguito, che mostra l'utilizzo del probe di idoneità e del probe di attività.

    Per scoprire come configurare i probe in Kubernetes, consulta Configurare i probe.

    startupProbe:
      periodSeconds: 5
      timeoutSeconds: 5
      successThreshold: 1
      failureThreshold: 20
      tcpSocket:
        port: redis
    livenessProbe:
      periodSeconds: 5
      timeoutSeconds: 5
      successThreshold: 1
      failureThreshold: 5
      exec:
        command: ["sh", "-c", "/probes/liveness.sh"]
    readinessProbe:
      periodSeconds: 5
      timeoutSeconds: 1
      successThreshold: 1
      failureThreshold: 5
      exec:
        command: ["sh", "-c", "/probes/readiness.sh"]

    Ti consigliamo vivamente di utilizzare i controlli di idoneità e di attività quando esegui l'upgrade dei pool di nodi; in questo modo, avrai la certezza che i pod siano pronti durante l'upgrade.

  4. Esegui il deployment dello StatefulSet:

    kubectl apply -f redis-cluster.yaml
    
  5. Il servizio headless denominato redis-service.yaml è per la connessione dei nodi Redis. Il campo clusterIP è impostato su None per creare un servizio headless.

    Esegui il deployment del servizio:

    kubectl apply -f redis-service.yaml
    
  6. Attendi circa due minuti e verifica che tutti i pod siano in esecuzione utilizzando il seguente comando:

    kubectl get pods
    

    Dovresti vedere un output simile all'esempio seguente:

    NAME      READY   STATUS              RESTARTS   AGE
    redis-0   1/1     Running             0          2m29s
    redis-1   1/1     Running             0          2m8s
    redis-2   1/1     Running             0          107s
    redis-3   1/1     Running             0          85s
    redis-4   1/1     Running             0          54s
    redis-5   1/1     Running             0          23s
    
  7. Verifica che i volumi permanenti siano stati creati eseguendo il seguente comando:

    kubectl get pv
    

    Dovresti vedere un output simile al seguente esempio:

    NAME       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                  STORAGECLASS   REASON   AGE
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-5   standard                75s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-1   standard                2m59s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-3   standard                2m16s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-2   standard                2m38s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-0   standard                3m20s
    pvc-HASH   1Gi        RWO            Delete           Bound    default/data-redis-4   standard                104s
    

    In questo output, HASH rappresenta un hash associato a ogni un nome di volume permanente.

Assegna ruoli al tuo cluster Redis

Una volta completata la configurazione, assegna i ruoli al cluster Redis.

Lo script seguente ottiene gli indirizzi IP dei pod, quindi assegna i ruoli leader e follower passando ciascun indirizzo IP del pod al comando:

#!/bin/bash
# Usage: ./roles.sh

urls=$(kubectl get pods -l app=redis -o jsonpath='{range.items[*]}{.status.podIP} ')
command="kubectl exec -it redis-0 -- redis-cli --cluster create --cluster-replicas 1 "

for url in $urls
do
    command+=$url":6379 "
done

echo "Executing command: " $command
$command

Per assegnare i ruoli al cluster Redis, completa i seguenti passaggi:

  1. Esegui lo script:

    chmod +x ./roles.sh
    ./roles.sh
    
  2. Digita yes quando richiesto.

  3. Accedi a un nodo Redis per verificare il relativo ruolo. Ad esempio, per verificare che redis-0 abbia un ruolo di leader, esegui il seguente comando:

    kubectl exec -it redis-0 -- redis-cli role
    

    Dovresti vedere un output simile all'esempio seguente:

    1) "master"
    2) (integer) 574
    3) 1) 1) "10.28.2.3"
           2) "6379"
           3) "574"
    

Esegui il deployment dell'applicazione client Redis

Per eseguire il deployment dell'applicazione nel cluster GKE che hai creato, definisci un deployment per la tua applicazione. Il file denominato app-deployment.yaml contiene la definizione del deployment per l'applicazione.

Per scoprire di più sui controlli e sulle regole di affinità dei pod utilizzati in questo deployment, consulta le best practice di GKE: progettazione e creazione di cluster ad alta disponibilità.

Per creare il deployment, completa i seguenti passaggi:

  1. Applica il deployment:

    kubectl apply -f app-deployment.yaml
    
  2. Esposizione dell'applicazione tramite un bilanciatore del carico:

    kubectl expose deployment hello-web \
        --type=LoadBalancer \
        --port 80 \
        --target-port 8080
    
  3. Attendi circa un minuto e recupera l'indirizzo IP esterno dell'applicazione eseguendo il seguente comando:

    kubectl get service
    

    Dall'output, copia il valore indicato nella colonna hello-web's EXTERNAL-IP:

    NAME             TYPE           CLUSTER-IP    EXTERNAL-IP    PORT(S)              AGE
    hello-web        LoadBalancer   10.13.10.55   EXTERNAL_IP   80:30703/TCP         166m
    
  4. Verifica che l'applicazione funzioni incollando EXTERNAL_IP in nel browser web. Dovresti vedere un output simile all'esempio seguente:

    I have been hit [1] times since deployment!
    

    Prendi nota del numero di visite. Devi utilizzarlo Sezione Test dell'interruzione dell'applicazione.

  5. Imposta una variabile per il valore EXTERNAL_IP che hai appena copiato. Utilizzi questo quando crea script per testare l'applicazione nella sezione successiva:

    export IP=EXTERNAL_IP
    

Configura le best practice per gli upgrade del pool di nodi

Esegui queste best practice per le applicazioni stateful in modo da ottimizzare per una migliore disponibilità durante gli upgrade del pool di nodi.

Configura il budget di interruzione dei pod (PDB)

Crea un budget per l'interruzione dei pod per limitare il numero di pod replicati inattivi contemporaneamente durante un'interruzione volontaria. Questo è utile per le applicazioni stateful in cui è necessario un quorum per rendere disponibili il numero di repliche durante un upgrade.

apiVersion: policy/v1
kind: PodDisruptionBudget
metadata:
  name: redis-pdb
spec:
  minAvailable: 3
  selector:
    matchLabels:
      app: redis

In una definizione di PDB:

  • app specifica l'applicazione a cui si applica questo PDB.
  • minAvailable imposta il numero minimo di pod da rendere disponibili durante un'interruzione. Può essere un valore o una percentuale (ad es. 30%).
  • maxUnavailable imposta il numero massimo di pod che possono essere non disponibili durante un'interruzione. Può essere anche un valore o una percentuale.

Per configurare il PDB:

  1. Esegui il deployment del PDB:

    kubectl apply -f pdb-minavailable.yaml
    
  2. Verifica che il PDB sia stato creato:

    kubectl get pdb
    

Configura i periodi di manutenzione ed esclusioni

Gli upgrade automatici dei nodi semplificano la procedura di upgrade e mantengono aggiornati i nodi del cluster quando l'upgrade del piano di controllo viene eseguito per tuo conto. Questa funzione è attivata per impostazione predefinita. Per scoprire di più, consulta Upgrade automatico dei nodi.

Utilizza i periodi di manutenzione e le esclusioni di manutenzione per impostare intervalli di tempo e controllare quando può e non può essere eseguita la manutenzione nei cluster GKE:

  1. Configura un periodo di manutenzione che inizi alle 02:00 UTC del 19 agosto 2022 e termini quattro ore dopo. Questo periodo di manutenzione viene eseguito ogni giorno. Durante questo periodo, è consentita la manutenzione automatica.

    gcloud container clusters update redis-test \
       --maintenance-window-start 2022-08-19T02:00:00Z \
       --maintenance-window-end 2022-08-19T06:00:00Z \
       --maintenance-window-recurrence FREQ=DAILY
    
  2. Imposta una finestra di esclusione che impedisca la manutenzione durante le festività di Capodanno. Questa esclusione di manutenzione utilizza l'ambito no_upgrades. Durante questo periodo, non è consentita alcuna manutenzione automatica di alcun tipo. Per scoprire di più, consulta Ambito della manutenzione da escludere.

    gcloud container clusters update redis-test \
       --add-maintenance-exclusion-name new-year \
       --add-maintenance-exclusion-start 2022-12-26T00:00:00Z \
       --add-maintenance-exclusion-end 2023-01-02T02:00:00Z \
       --add-maintenance-exclusion-scope no_upgrades
    
  3. Verifica che il periodo di manutenzione e le esclusioni siano applicati. Cerca sotto maintenancePolicy:

    gcloud container clusters describe redis-test
    

Per scoprire di più, consulta Configurare periodi di manutenzione ed esclusioni.

Configura una strategia di upgrade dei nodi

Esistono due strategie di upgrade dei nodi che puoi utilizzare per i pool di nodi nel tuo cluster GKE: Upgrade blu/verde e upgrade di sovraccarico. Per scoprire di più, consulta Strategie di upgrade dei nodi.

Upgrade blu/verde

Scegli gli upgrade blu/verdi se i carichi di lavoro sono meno tolleranti alle interruzioni e se è accettabile un aumento temporaneo dei costi dovuto a un maggiore utilizzo delle risorse.

Esegui il seguente comando per modificare i pool di nodi attuali in base alla strategia di upgrade blue-green.

gcloud container node-pools update default-pool \
--cluster=redis-test \
--enable-blue-green-upgrade \
--zone COMPUTE-ZONE \
--node-pool-soak-duration=120s

Ai fini di questo tutorial, la durata di attesa per il pool di nodi è impostata su due minuti per risparmiare tempo durante la fase di attesa del pool di nodi. Questa fase viene utilizzata per verificare l'integrità del carico di lavoro dopo lo svuotamento dei nodi del pool blu. Ti consigliamo di impostare la durata del tempo di attesa del pool di nodi su un'ora (3600 secondi) o su una durata più adatta all'applicazione.

Per ulteriori informazioni sulla gestione dell'allocazione dei pod, consulta Eseguire il deployment di un pod in un pool di nodi specifico e Eseguire il deployment di servizi in pool di nodi specifici.

Per ulteriori informazioni sulla configurazione degli upgrade blu/verdi, consulta Configurare gli upgrade blu/verdi.

Upgrade di incremento

Scegli gli upgrade di sovraccarico se l'ottimizzazione dei costi è importante e se i carichi di lavoro possono tollerare un arresto controllato in meno di 60 minuti (GKE rispetta il PDB fino a 60 minuti).

Esegui il seguente comando per modificare i pool di nodi attuali in base alla strategia di upgrade di picco.

gcloud container node-pools update default-pool \
--max-surge-upgrade=1 \
--max-unavailable-upgrade=0 \
--cluster=redis-test

Con questa configurazione (maxSurge=1 e maxUnavailable=0), è possibile aggiungere un solo nodo di picco al pool di nodi durante un upgrade, pertanto è possibile eseguire l'upgrade di un solo nodo alla volta. Questa impostazione velocizza il riavvio dei pod durante gli upgrade, progredendo in modo conservativo.

Per ulteriori informazioni sulla configurazione degli upgrade di sovraccarico, consulta Configurare gli upgrade di sovraccarico.

Controlla l'attuale configurazione del pool di nodi:

   gcloud container node-pools describe default-pool \
   --cluster redis-test \
   --zone COMPUTE-ZONE

Per saperne di più sulla visualizzazione dei pool di nodi, consulta Visualizzare i pool di nodi in un cluster.

testa l'applicazione

In questa sezione utilizzerai due script: uno che invia richieste alla tua applicazione, e una che misura la percentuale di successo delle richieste. Usi questi script per misurare cosa succede quando esegui l'upgrade del cluster.

Per creare gli script:

  1. Passa alla directory contenente gli script:

    cd
    cd kubernetes-engine-samples/quickstarts/hello-app-redis/scripts
    
  2. Fai riferimento allo script denominato generate_load.sh che invia query al secondo (QPS) alla tua applicazione. Lo script salva il codice di risposta HTTP nella directory corrente in un file denominato output. Il valore di output viene utilizzato nello script che crei nel passaggio successivo.

    #!/bin/bash
    # Usage: ./generate_load.sh <IP> <QPS>
    
    IP=$1
    QPS=$2
    
    while true
      do for N in $(seq 1 $QPS)
        do curl -I -m 5 -s -w "%{http_code}\n" -o /dev/null http://${IP}/ >> output &
        done
      sleep 1
    done
  3. Fai riferimento allo script denominato print_error_rate.sh che calcola la riuscita basata sull'output generato da generate_load.sh.

    #!/bin/bash
    # Usage: watch ./print_error_rate.sh
    
    TOTAL=$(cat output | wc -l);
    SUCCESS=$(grep "200" output |  wc -l);
    ERROR1=$(grep "000" output |  wc -l)
    ERROR2=$(grep "503" output |  wc -l)
    ERROR3=$(grep "500" output |  wc -l)
    SUCCESS_RATE=$(($SUCCESS * 100 / TOTAL))
    ERROR_RATE=$(($ERROR1 * 100 / TOTAL))
    ERROR_RATE_2=$(($ERROR2 * 100 / TOTAL))
    ERROR_RATE_3=$(($ERROR3 * 100 / TOTAL))
    echo "Success rate: $SUCCESS/$TOTAL (${SUCCESS_RATE}%)"
    echo "App network Error rate: $ERROR1/$TOTAL (${ERROR_RATE}%)"
    echo "Resource Error rate: $ERROR2/$TOTAL (${ERROR_RATE_2}%)"
    echo "Redis Error rate: $ERROR3/$TOTAL (${ERROR_RATE_3}%)"
  4. Concediti l'autorizzazione per eseguire gli script:

    chmod u+x generate_load.sh print_error_rate.sh
    
  5. Imposta una variabile per il numero di QPS. Questo valore viene utilizzato nello script generate_load.sh, così come la variabile impostata per EXTERNAL_IP. Ti consigliamo di impostare un valore pari a 40.

    export QPS=40
    
  6. Esegui lo script generate_load.sh per iniziare a inviare QPS:

    ./generate_load.sh $IP $QPS 2>&1
    
  7. Lascia in esecuzione lo script generate_load.sh e apri un nuovo terminale. Nel nuovo terminale, esegui lo script print_error_rate.sh per controllare il tasso di errore:

    cd
    cd kubernetes-engine-samples/quickstarts/hello-app-redis/scripts
    watch ./print_error_rate.sh
    

    Dovresti vedere una percentuale di successo del 100% e un tasso di errore dello 0% man mano che vengono eseguiti i QPS.

  8. Lascia in esecuzione entrambi gli script e apri un terzo terminale in preparazione alla sezione successiva.

Esegui l'upgrade del cluster

Per eseguire l'upgrade del cluster, completa questi passaggi:

  1. Determina la versione di GKE utilizzata dal cluster redis-test:

    V=$(gcloud container clusters describe redis-test | grep "version:" | sed "s/version: //")
    echo $V
    

    Dovresti vedere un output simile all'esempio seguente: 1.22.9-gke.2000.

  2. Recupera un elenco delle versioni di Kubernetes disponibili:

    gcloud container get-server-config
    
  3. Nell'elenco delle versioni, individua la sezione validMasterVersions: e cerca la versione redis-test recuperata nel passaggio precedente. Da evitare violando il disallineamento delle versioni di GKE criterio scegliendo una versione incompatibile con i nodi, copia la versione dall'elenco elencato immediatamente prima della versione redis-test.

  4. Esegui l'upgrade del piano di controllo del cluster alla versione selezionata e digita y quando richiesto:

    gcloud container clusters upgrade redis-test \
        --master \
        --cluster-version VERSION
    

    Sostituisci VERSION con la versione selezionata dall'elenco nel passaggio precedente.

    L'upgrade del piano di controllo richiede diversi minuti.

  5. Esegui l'upgrade dei nodi del cluster alla versione selezionata e digita y quando richiesto:

    gcloud container clusters upgrade redis-test \
        --cluster-version=VERSION \
        --node-pool=default-pool
    

    Sostituisci VERSION con la versione selezionata dall'elenco.

Testare l'interruzione del carico di lavoro

In questa sezione testerai lo stato dell'applicazione e osserverai l'interruzione del carico di lavoro.

  1. Torna alla finestra del terminale che esegue ./print_error_rate.sh e osserva come cambia la percentuale di successo durante l'upgrade. Dovresti notare una lieve diminuzione della percentuale di successo e un lieve aumento del tasso di errore della rete dell'app quando i nodi vengono disattivati per l'upgrade.

    Nel campo Success rate puoi vedere quante visite sono state apportate correttamente al sito web. Prendi nota di questo valore.

  2. Interrompi l'esecuzione di entrambi gli script inserendo CTRL+C nei terminali pertinenti.

  3. Torna al sito web della tua applicazione inserendo il relativo indirizzo IP (EXTERNAL_IP che hai copiato durante la sezione Esegui il deployment dell'applicazione client Redis) nel browser.

  4. Osserva il numero di visite per la tua applicazione. Il numero visualizzato dovrebbe essere uguale a:

    ORIGINAL_VISIT_NUMBER + SUCCESSFUL_VISIT_NUMBER

    dove ORIGINAL_VISIT_NUMBER è il numero registrato nel passaggio finale di Esegui il deployment dell'applicazione client Redis e SUCCESSFUL_VISIT_NUMBER è il valore registrato nel primo passaggio di questa sezione.

Esegui la pulizia

Al termine del tutorial, puoi eliminare le risorse che hai creato in modo che smettano di utilizzare la quota e di generare addebiti. Le seguenti sezioni descrivono come eliminare o disattivare queste risorse.

Elimina il progetto

Il modo più semplice per eliminare la fatturazione creato per il tutorial.

Per eliminare il progetto:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Elimina il cluster

Per eliminare il cluster che hai creato per questo tutorial, esegui questo comando:

gcloud container clusters delete redis-test

Passaggi successivi