Upgrade di un ambiente GKE multi-cluster con Ingress multi-cluster

Last reviewed 2022-12-15 UTC

Questo tutorial mostra come eseguire l'upgrade di un ambiente Google Kubernetes Engine (GKE) multi-cluster utilizzando Ingress multi-cluster. Questo tutorial è una continuazione del documento sugli upgrade GKE multi-cluster che utilizzano Ingress multi-cluster che spiega in modo più dettagliato il processo, l'architettura e i termini. Ti consigliamo di leggere il documento sul concetto prima di questo tutorial.

Per un confronto dettagliato tra Ingress multi-cluster (MCI), gateway multi-cluster (MCG) e bilanciatore del carico con gruppi di endpoint di rete autonomi (LB e NEG autonomi), consulta Scegliere l'API di bilanciamento del carico multi-cluster per GKE.

Questo documento è destinato agli amministratori di Google Cloud responsabili della gestione dei parchi risorse per i cluster GKE.

Ti consigliamo di eseguire l'upgrade automatico dei cluster GKE. L'upgrade automatico è un modo completamente gestito per far sì che i tuoi cluster (piano di controllo e nodi) vengano aggiornati automaticamente in base a una pianificazione di rilascio determinata da Google Cloud. Ciò non richiede alcun intervento da parte dell'operatore. Tuttavia, se vuoi un maggiore controllo su come e quando viene eseguito l'upgrade dei cluster, questo tutorial illustra il metodo per eseguire l'upgrade di più cluster in cui le tue app vengono eseguite su tutti i cluster. Quindi utilizza Ingress multi-cluster per svuotare un cluster alla volta prima dell'upgrade.

Architettura

Questo tutorial utilizza la seguente architettura. Esistono tre cluster in totale: due cluster (blue e green) agiscono come cluster identici con la stessa app di cui è stato eseguito il deployment e un cluster (ingress-config) funge da cluster del piano di controllo che configura Ingress multi-cluster. In questo tutorial eseguirai il deployment di un'app di esempio in due cluster di app (blue e green cluster).

Architettura di due cluster identici e un cluster del piano di controllo.

Obiettivi

  • Crea tre cluster GKE e registrali come parco risorse.
  • Configura un cluster GKE (ingress-config) come cluster di configurazione centrale.
  • Esegui il deployment di un'app di esempio negli altri cluster GKE.
  • Configura Ingress multi-cluster per inviare il traffico client all'app in esecuzione su entrambi i cluster.
  • Imposta un generatore di carico per l'app e configura il monitoraggio.
  • Rimuovi (scarica) un cluster di app dall'Ingress multi-cluster ed esegui l'upgrade del cluster svuotato.
  • Versamento del traffico nel cluster aggiornato utilizzando Ingress multi-cluster.

Costi

In questo documento vengono utilizzati i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi in base all'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud possono essere idonei a una prova senza costi aggiuntivi.

Una volta completate le attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la pagina Pulizia.

Prima di iniziare

  1. Questo tutorial richiede di configurare Ingress multi-cluster per configurare quanto segue:
    • Due o più cluster con le stesse app, ad esempio spazi dei nomi, deployment e servizi, in esecuzione su tutti i cluster.
    • L'upgrade automatico è disattivato per tutti i cluster.
    • I cluster sono cluster nativi VPC che utilizzano intervalli di indirizzi IP alias
    • Avere il bilanciamento del carico HTTP abilitato (attivato per impostazione predefinita).
    • gcloud --version deve essere 369 o superiore. I passaggi per la registrazione dei cluster GKE dipendono da questa versione o da quelle successive.
  2. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. Nella console Google Cloud, attiva Cloud Shell.

    Attiva Cloud Shell

  5. Imposta il progetto predefinito:

    export PROJECT=$(gcloud info --format='value(config.project)')
    gcloud config set project ${PROJECT}
    
  6. Abilita le API GKE, Hub e multiclusteringress:

    gcloud services enable container.googleapis.com \
                           gkehub.googleapis.com \
                           multiclusteringress.googleapis.com \
                           multiclusterservicediscovery.googleapis.com
    

Configura l'ambiente

  1. In Cloud Shell, clona il repository per ottenere i file per questo tutorial:

    cd ${HOME}
    git clone https://github.com/GoogleCloudPlatform/gke-multicluster-upgrades.git
    
  2. Crea una directory WORKDIR:

    cd gke-multicluster-upgrades
    export WORKDIR=`pwd`
    

Crea e registra i cluster GKE nell'hub

In questa sezione creerai tre cluster GKE e li registri su GKE Enterprise Hub.

Crea cluster GKE

  1. In Cloud Shell, crea tre cluster GKE:

    gcloud container clusters create ingress-config --zone us-west1-a \
    --release-channel=None --no-enable-autoupgrade --num-nodes=4 \
    --enable-ip-alias --workload-pool=${PROJECT}.svc.id.goog --quiet --async
    gcloud container clusters create blue --zone us-west1-b --num-nodes=3 \
    --release-channel=None --no-enable-autoupgrade --enable-ip-alias \
    --workload-pool=${PROJECT}.svc.id.goog --quiet --async
    gcloud container clusters create green --zone us-west1-c --num-nodes=3 \
    --release-channel=None --no-enable-autoupgrade --enable-ip-alias \
    --workload-pool=${PROJECT}.svc.id.goog --quiet
    

    Ai fini di questo tutorial, creerai i cluster in una singola area geografica, in tre zone diverse: us-west1-a, us-west1-b e us-west1-c. Per ulteriori informazioni su regioni e zone, consulta Area geografica e regioni.

  2. Attendi qualche minuto per la creazione di tutti i cluster. Assicurati che i cluster siano in esecuzione:

    gcloud container clusters list
    

    L'output è simile al seguente:

    NAME: ingress-config
    LOCATION: us-west1-a
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 35.233.186.135
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 4
    STATUS: RUNNING
    
    NAME: blue
    LOCATION: us-west1-b
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 34.82.35.222
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 3
    STATUS: RUNNING
    
    NAME: green
    LOCATION: us-west1-c
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 35.185.204.26
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 3
    STATUS: RUNNING
    
  3. Crea un file kubeconfig e connettiti a tutti i cluster per generare voci nel file kubeconfig:

    touch gke-upgrade-kubeconfig
    export KUBECONFIG=gke-upgrade-kubeconfig
    gcloud container clusters get-credentials ingress-config \
        --zone us-west1-a --project ${PROJECT}
    gcloud container clusters get-credentials blue --zone us-west1-b \
        --project ${PROJECT}
    gcloud container clusters get-credentials green --zone us-west1-c \
        --project ${PROJECT}
    

    Puoi utilizzare il file kubeconfig per creare l'autenticazione sui cluster creando un utente e un contesto per ogni cluster. Dopo aver creato il file kubeconfig, puoi passare rapidamente al contesto da un cluster all'altro.

  4. Verifica che il file kubeconfig contenga tre cluster:

    kubectl config view -ojson | jq -r '.clusters[].name'
    

    L'output è il seguente:

    gke_gke-multicluster-upgrades_us-west1-a_ingress-config
    gke_gke-multicluster-upgrades_us-west1-b_blue
    gke_gke-multicluster-upgrades_us-west1-c_green
    
  5. Ottieni il contesto per i tre cluster per un uso futuro:

    export INGRESS_CONFIG_CLUSTER=$(kubectl config view -ojson | jq \
        -r '.clusters[].name' | grep ingress-config)
    export BLUE_CLUSTER=$(kubectl config view -ojson | jq \
        -r '.clusters[].name' | grep blue)
    export GREEN_CLUSTER=$(kubectl config view -ojson | jq \
        -r '.clusters[].name' | grep green)
    echo -e "${INGRESS_CONFIG_CLUSTER}\n${BLUE_CLUSTER}\n${GREEN_CLUSTER}"
    

    L'output è il seguente:

    gke_gke-multicluster-upgrades_us-west1-a_ingress-config
    gke_gke-multicluster-upgrades_us-west1-b_blue
    gke_gke-multicluster-upgrades_us-west1-c_green
    

Registra i cluster GKE in un parco risorse

La registrazione dei cluster in un parco risorse ti consente di utilizzare i cluster Kubernetes in ambienti ibridi. I cluster registrati nei parchi risorse possono utilizzare funzionalità avanzate di GKE, come Ingress multi-cluster. Per registrare un cluster GKE in un parco risorse, puoi utilizzare direttamente un account di servizio Google Cloud o utilizzare l'approccio consigliato Workload Identity, che consente a un account di servizio Kubernetes nel tuo cluster GKE di agire come account di servizio Identity and Access Management.

  1. Registra i tre cluster come parco risorse:

    gcloud container fleet memberships register ingress-config \
        --gke-cluster=us-west1-a/ingress-config \
        --enable-workload-identity
    
    gcloud container fleet memberships register blue \
        --gke-cluster=us-west1-b/blue \
        --enable-workload-identity
    
    gcloud container fleet memberships register green \
        --gke-cluster=us-west1-c/green \
        --enable-workload-identity
    
  2. Verifica che i cluster siano registrati:

    gcloud container fleet memberships list
    

    L'output è simile al seguente:

    NAME: blue
    EXTERNAL_ID: 401b4f08-8246-4f97-a6d8-cf1b78c2a91d
    
    NAME: green
    EXTERNAL_ID: 8041c36a-9d42-40c8-a67f-54fcfd84956e
    
    NAME: ingress-config
    EXTERNAL_ID: 65ac48fe-5043-42db-8b1e-944754a0d725
    
  3. Configura il cluster ingress-config come cluster di configurazione per Ingress multi-cluster abilitando la funzionalità multiclusteringress tramite l'hub:

    gcloud container fleet ingress enable --config-membership=ingress-config
    

    Il comando precedente aggiunge le MulticlusterIngress e MulticlusterService CRD (Custom Resource Definitions) al cluster ingress-config. Il completamento di questo comando richiede alcuni minuti. Attendi prima di procedere con il passaggio successivo.

  4. Verifica che il cluster ingress-cluster sia stato configurato correttamente per Ingress multi-cluster:

    watch gcloud container fleet ingress describe
    

    Attendi che l'output sia simile al seguente:

    createTime: '2022-07-05T10:21:40.383536315Z'
    membershipStates:
      projects/662189189487/locations/global/memberships/blue:
        state:
          code: OK
          updateTime: '2022-07-08T10:59:44.230329189Z'
      projects/662189189487/locations/global/memberships/green:
        state:
          code: OK
          updateTime: '2022-07-08T10:59:44.230329950Z'
      projects/662189189487/locations/global/memberships/ingress-config:
        state:
          code: OK
          updateTime: '2022-07-08T10:59:44.230328520Z'
    name: projects/gke-multicluster-upgrades/locations/global/features/multiclusteringress
    resourceState:
      state: ACTIVE
    spec:
      multiclusteringress:
        configMembership: projects/gke-multicluster-upgrades/locations/global/memberships/ingress-config
    state:
      state:
        code: OK
        description: Ready to use
        updateTime: '2022-07-08T10:57:33.303543609Z'
    updateTime: '2022-07-08T10:59:45.247576318Z'
    

    Per uscire dal comando watch, premi Ctrl+C.

Esegui il deployment di un'applicazione di esempio nei cluster blu e verde

  1. In Cloud Shell, esegui il deployment dell'app whereami di esempio nei cluster blue e green:

    kubectl --context ${BLUE_CLUSTER} apply -f ${WORKDIR}/application-manifests
    kubectl --context ${GREEN_CLUSTER} apply -f ${WORKDIR}/application-manifests
    
  2. Attendi qualche minuto e assicurati che tutti i pod nei cluster blue e green abbiano uno stato Running:

    kubectl --context ${BLUE_CLUSTER} get pods
    kubectl --context ${GREEN_CLUSTER} get pods
    

    L'output è simile al seguente:

    NAME                                   READY   STATUS    RESTARTS   AGE
    whereami-deployment-756c7dc74c-zsmr6   1/1     Running   0          74s
    NAME                                   READY   STATUS    RESTARTS   AGE
    whereami-deployment-756c7dc74c-sndz7   1/1     Running   0          68s.
    

Configura Ingress multi-cluster

In questa sezione creerai una risorsa Ingress multi-cluster che invia il traffico all'applicazione in esecuzione sui cluster blue e green. Utilizzerai Cloud Load Balancing per creare un bilanciatore del carico che utilizzi l'app whereami nei cluster blue e green come backend. Per creare il bilanciatore del carico, sono necessarie due risorse: MultiClusterIngress e una o più MultiClusterServices. Gli oggetti MultiClusterIngress e MultiClusterService sono analoghi multi-cluster per le risorse Kubernetes Ingress e Service esistenti utilizzate nel contesto di un singolo cluster.

  1. In Cloud Shell, esegui il deployment della risorsa MulticlusterIngress nel cluster ingress-config:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} apply -f ${WORKDIR}/multicluster-manifests/mci.yaml
    

    L'output è il seguente:

    multiclusteringress.networking.gke.io/whereami-mci created
    
  2. Esegui il deployment della risorsa MulticlusterService nel cluster ingress-config:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} apply -f ${WORKDIR}/multicluster-manifests/mcs-blue-green.yaml
    

    L'output è il seguente:

    multiclusterservice.networking.gke.io/whereami-mcs created
    
  3. Per confrontare le due risorse:

    • Controlla la risorsa MulticlusterIngress:

      kubectl --context ${INGRESS_CONFIG_CLUSTER} get multiclusteringress -o yaml
      

      L'output contiene quanto segue:

      spec:
        template:
          spec:
            backend:
              serviceName: whereami-mcs
              servicePort: 8080
      

      La risorsa MulticlusterIngress è simile alla risorsa Kubernetes Ingress, tranne per il fatto che la specifica serviceName punta a una risorsa MulticlusterService.

    • Controlla la risorsa MulticlusterService:

      kubectl --context ${INGRESS_CONFIG_CLUSTER} get multiclusterservice -o yaml
      

      L'output contiene quanto segue:

      spec:
        clusters:
        - link: us-west1-b/blue
        - link: us-west1-c/green
        template:
          spec:
            ports:
            - name: web
              port: 8080
              protocol: TCP
              targetPort: 8080
            selector:
              app: whereami
      

      La risorsa MulticlusterService è simile a una risorsa del servizio Kubernetes, ma ha una specifica clusters. Il valore clusters è l'elenco dei cluster registrati in cui viene creata la risorsa MulticlusterService.

    • Verifica che la risorsa MulticlusterIngress abbia creato un bilanciatore del carico con un servizio di backend che punta alla MulticlusterServicerisorsa:

      watch kubectl --context ${INGRESS_CONFIG_CLUSTER} \
            get multiclusteringress -o jsonpath="{.items[].status.VIP}"
      

      L'operazione potrebbe richiedere fino a 10 minuti Attendi che l'output sia simile al seguente:

      34.107.246.9
      

      Per uscire dal comando watch, premi Control+C.

  4. In Cloud Shell, ottieni il VIP di Cloud Load Balancing:

    export GCLB_VIP=$(kubectl --context ${INGRESS_CONFIG_CLUSTER} \
           get multiclusteringress -o json | jq -r '.items[].status.VIP') \
           && echo ${GCLB_VIP}
    

    L'output è simile al seguente:

    34.107.246.9
    
  5. Usa curl per accedere al bilanciatore del carico e all'applicazione di cui è stato eseguito il deployment:

    curl ${GCLB_VIP}
    

    L'output è simile al seguente:

    {
      "cluster_name": "green",
      "host_header": "34.107.246.9",
      "pod_name": "whereami-deployment-756c7dc74c-sndz7",
      "pod_name_emoji": "😇",
      "project_id": "gke-multicluster-upgrades",
      "timestamp": "2022-07-08T14:26:07",
      "zone": "us-west1-c"
    }
    
  6. Esegui ripetutamente il comando curl. Nota che le richieste vengono sottoposte a bilanciamento del carico tra l'applicazione whereami di cui è stato eseguito il deployment in due cluster, blue e green.

Configura il generatore di carico

In questa sezione configurerai un servizio loadgenerator che genera traffico client verso il VIP di Cloud Load Balancing. Innanzitutto, il traffico viene inviato ai cluster blue e green perché la risorsa MulticlusterService è configurata in modo da inviare traffico a entrambi i cluster. In seguito, configurerai la risorsa MulticlusterService per inviare il traffico a un singolo cluster.

  1. Configura il manifest loadgenerator per inviare il traffico dei client a Cloud Load Balancing:

    TEMPLATE=loadgen-manifests/loadgenerator.yaml.templ && envsubst < ${TEMPLATE} > ${TEMPLATE%.*}
    
  2. Esegui il deployment di loadgenerator nel cluster ingress-config:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} apply -f ${WORKDIR}/loadgen-manifests
    
  3. Verifica che tutti i pod loadgenerator nel cluster ingress-config abbiano uno stato Running:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} get pods
    

    L'output è simile al seguente:

    NAME                             READY   STATUS    RESTARTS   AGE
    loadgenerator-5498cbcb86-hqscp   1/1     Running   0          53s
    loadgenerator-5498cbcb86-m2z2z   1/1     Running   0          53s
    loadgenerator-5498cbcb86-p56qb   1/1     Running   0          53s
    

    Se alcuni pod non hanno uno stato Running, attendi qualche minuto ed esegui di nuovo il comando.

Monitoraggio del traffico

In questa sezione monitorerai il traffico verso l'app whereami utilizzando la console Google Cloud.

Nella sezione precedente hai configurato un deployment loadgenerator che simula il traffico client accedendo all'app whereami tramite il VIP di Cloud Load Balancing. Puoi monitorare queste metriche tramite la console Google Cloud. Devi prima configurare il monitoraggio in modo da poterlo monitorare man mano che svuoti i cluster per gli upgrade (come descritto nella sezione successiva).

  1. Crea una dashboard per mostrare il traffico che raggiunge Ingress multi-cluster:

    export DASH_ID=$(gcloud monitoring dashboards create \
        --config-from-file=dashboards/cloud-ops-dashboard.json \
        --format=json | jq  -r ".name" | awk -F '/' '{print $4}')
    

    L'output è simile al seguente:

    Created [721b6c83-8f9b-409b-a009-9fdf3afb82f8]
    
  2. Le metriche di Cloud Load Balancing sono disponibili nella console Google Cloud. Genera l'URL:

    echo "https://console.cloud.google.com/monitoring/dashboards/builder/${DASH_ID}/?project=${PROJECT}&timeDomain=1h"
    

    L'output è simile al seguente:

    https://console.cloud.google.com/monitoring/dashboards/builder/721b6c83-8f9b-409b-a009-9fdf3afb82f8/?project=gke-multicluster-upgrades&timeDomain=1h"
    
  3. In un browser, vai all'URL generato dal comando precedente.

    Il traffico verso l'applicazione di esempio passa dal generatore di carico ai cluster blue e green (indicati dalle due zone in cui si trovano i cluster). Il grafico delle metriche della cronologia mostra il traffico diretto a entrambi i backend.I valori del mouseover k8s1- indicano che il gruppo di endpoint di rete (NEG) per i due frontend MulticlusterServices sono in esecuzione nei cluster blue e green.

    Grafico con metriche Timeline che mostra il traffico che passa a entrambi i backend.

Svuota ed esegui l'upgrade del cluster blue

In questa sezione eseguirai lo svuotamento del cluster blue. Lo svuotamento di un cluster comporta la rimozione del cluster dal pool di bilanciamento del carico. Dopo aver svuotato il cluster blue, tutto il traffico client destinato all'applicazione passa al cluster green. Puoi monitorare questo processo come descritto nella sezione precedente. Una volta svuotato il cluster, puoi eseguire l'upgrade del cluster. Dopo l'upgrade, puoi reinserirlo nel pool di bilanciamento del carico. Ripeti questi passaggi per eseguire l'upgrade dell'altro cluster (non mostrato in questo tutorial).

Per svuotare il cluster blue, devi aggiornare la risorsa MulticlusterService nel cluster ingress-cluster e rimuovere il cluster blue dalla specifica clusters.

Svuota il cluster blu

  1. In Cloud Shell, aggiorna la risorsa MulticlusterService nel cluster ingress-config:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} \
              apply -f ${WORKDIR}/multicluster-manifests/mcs-green.yaml
    
  2. Verifica di avere solo il cluster green nella specifica clusters:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} get multiclusterservice \
            -o json | jq '.items[].spec.clusters'
    

    L'output è il seguente:

    [
      {
        "link": "us-west1-c/green"
      }
    ]
    

    Solo il cluster green è elencato nella specifica clusters, quindi solo il cluster green si trova nel pool di bilanciamento del carico.

  3. Puoi visualizzare le metriche delle metriche di Cloud Load Balancing nella console Google Cloud. Genera l'URL:

    echo "https://console.cloud.google.com/monitoring/dashboards/builder/${DASH_ID}/?project=${PROJECT}&timeDomain=1h"
    
  4. In un browser, vai all'URL generato dal comando precedente.

    Il grafico mostra che solo il cluster green riceve traffico.

    Traffico che passa solo verso il cluster "verde".

Esegui l'upgrade del cluster blue

Ora che il cluster blue non riceve più traffico client, puoi eseguire l'upgrade del cluster (piano di controllo e nodi).

  1. In Cloud Shell, recupera la versione attuale dei cluster:

    gcloud container clusters list
    

    L'output è simile al seguente:

    NAME: ingress-config
    LOCATION: us-west1-a
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 35.233.186.135
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 4
    STATUS: RUNNING
    
    NAME: blue
    LOCATION: us-west1-b
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 34.82.35.222
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 3
    STATUS: RUNNING
    
    NAME: green
    LOCATION: us-west1-c
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 35.185.204.26
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 3
    STATUS: RUNNING
    

    Le versioni del cluster potrebbero essere diverse a seconda di quando completi questo tutorial.

  2. Scarica l'elenco delle versioni di MasterVersions disponibili nella zona:

    gcloud container get-server-config --zone us-west1-b --format=json | jq \
    '.validMasterVersions[0:20]'
    

    L'output è simile al seguente:

    [
      "1.24.1-gke.1400",
      "1.23.7-gke.1400",
      "1.23.6-gke.2200",
      "1.23.6-gke.1700",
      "1.23.6-gke.1501",
      "1.23.6-gke.1500",
      "1.23.5-gke.2400",
      "1.23.5-gke.1503",
      "1.23.5-gke.1501",
      "1.22.10-gke.600",
      "1.22.9-gke.2000",
      "1.22.9-gke.1500",
      "1.22.9-gke.1300",
      "1.22.8-gke.2200",
      "1.22.8-gke.202",
      "1.22.8-gke.201",
      "1.22.8-gke.200",
      "1.21.13-gke.900",
      "1.21.12-gke.2200",
      "1.21.12-gke.1700"
    ]
    
  3. Visualizza un elenco delle versioni di NodeVersions disponibili nella zona:

    gcloud container get-server-config --zone us-west1-b --format=json | jq \
    '.validNodeVersions[0:20]'
    

    L'output è simile al seguente:

    [
      "1.24.1-gke.1400",
      "1.23.7-gke.1400",
      "1.23.6-gke.2200",
      "1.23.6-gke.1700",
      "1.23.6-gke.1501",
      "1.23.6-gke.1500",
      "1.23.5-gke.2400",
      "1.23.5-gke.1503",
      "1.23.5-gke.1501",
      "1.22.10-gke.600",
      "1.22.9-gke.2000",
      "1.22.9-gke.1500",
      "1.22.9-gke.1300",
      "1.22.8-gke.2200",
      "1.22.8-gke.202",
      "1.22.8-gke.201",
      "1.22.8-gke.200",
      "1.22.7-gke.1500",
      "1.22.7-gke.1300",
      "1.22.7-gke.900"
    ]
    
  4. Imposta una variabile di ambiente per una versione MasterVersion e NodeVersion che sia negli elenchi MasterVersions e NodeVersions e che sia superiore alla versione attuale per il cluster blue, ad esempio:

    export UPGRADE_VERSION="1.22.10-gke.600"
    

    Questo tutorial utilizza la versione 1.22.10-gke.600. Le versioni del cluster potrebbero essere diverse a seconda di quelle disponibili quando completi questo tutorial. Per ulteriori informazioni sull'upgrade, consulta la pagina relativa all'upgrade di cluster e pool di nodi.

  5. Esegui l'upgrade del nodo control plane per il cluster blue:

    gcloud container clusters upgrade blue \
        --zone us-west1-b --master --cluster-version ${UPGRADE_VERSION}
    

    Per confermare l'upgrade, premi Y.

    Il completamento della procedura richiede alcuni minuti. Attendi il completamento dell'upgrade prima di procedere.

    Al termine dell'aggiornamento, l'output è il seguente:

    Updated
    [https://container.googleapis.com/v1/projects/gke-multicluster-upgrades/zones/us-west1-b/clusters/blue].
    
  6. Esegui l'upgrade dei nodi nel cluster blue:

    gcloud container clusters upgrade blue \
        --zone=us-west1-b --node-pool=default-pool \
        --cluster-version ${UPGRADE_VERSION}
    

    Per confermare l'aggiornamento, premi Y.

    Il completamento della procedura richiede alcuni minuti. Attendi il completamento dell'upgrade del nodo prima di procedere.

    Una volta completato l'upgrade, l'output è il seguente:

    Upgrading blue... Done with 3 out of 3 nodes (100.0%): 3 succeeded...done.
    Updated [https://container.googleapis.com/v1/projects/gke-multicluster-upgrades/zones/us-west1-b/clusters/blue].
    
  7. Verifica che sia stato eseguito l'upgrade del cluster blue:

    gcloud container clusters list
    

    L'output è simile al seguente:

    NAME: ingress-config
    LOCATION: us-west1-a
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 35.233.186.135
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 4
    STATUS: RUNNING
    
    NAME: blue
    LOCATION: us-west1-b
    MASTER_VERSION: 1.22.10-gke.600
    MASTER_IP: 34.82.35.222
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.10-gke.600
    NUM_NODES: 3
    STATUS: RUNNING
    
    NAME: green
    LOCATION: us-west1-c
    MASTER_VERSION: 1.22.8-gke.202
    MASTER_IP: 35.185.204.26
    MACHINE_TYPE: e2-medium
    NODE_VERSION: 1.22.8-gke.202
    NUM_NODES: 3
    STATUS: RUNNING
    

Aggiungi di nuovo il cluster blue al pool di bilanciamento del carico

In questa sezione aggiungerai di nuovo il cluster blue al pool di bilanciamento del carico.

  1. In Cloud Shell, verifica che il deployment dell'applicazione sia in esecuzione sul cluster blue prima di aggiungerlo di nuovo al pool di bilanciamento del carico:

    kubectl --context ${BLUE_CLUSTER} get pods
    

    L'output è simile al seguente:

    NAME                                   READY   STATUS    RESTARTS   AGE
    whereami-deployment-756c7dc74c-xdnb6   1/1     Running   0          17m
    
  2. Aggiorna la risorsa MutliclusterService per aggiungere di nuovo il cluster blue al pool di bilanciamento del carico:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} apply \
            -f ${WORKDIR}/multicluster-manifests/mcs-blue-green.yaml
    
  3. Verifica di avere entrambi i cluster blue e green nella specifica del cluster:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} get multiclusterservice \
            -o json | jq '.items[].spec.clusters'
    

    L'output è il seguente:

    [
      {
        "link": "us-west1-b/blue"
      },
      {
        "link": "us-west1-c/green"
      }
    ]
    

    I cluster blue e green sono ora nella specifica clusters.

  4. Le metriche delle metriche di Cloud Load Balancing sono disponibili nella console Google Cloud. Genera l'URL:

    echo "https://console.cloud.google.com/monitoring/dashboards/builder/${DASH_ID}/?project=${PROJECT}&timeDomain=1h"
    
  5. In un browser, vai all'URL generato dal comando precedente.

    Il grafico mostra che entrambi i cluster blu e verde ricevono traffico dal generatore di carico utilizzando il bilanciatore del carico.

    Entrambi i cluster ricevono traffico.

    Complimenti. Hai eseguito l'upgrade di un cluster GKE in un'architettura multi-cluster utilizzando Ingress multi-cluster.

  6. Per eseguire l'upgrade del cluster green, ripeti la procedura per svuotare ed eseguire l'upgrade del cluster blu, sostituendo blue con green.

Esegui la pulizia

Per evitare che al tuo Account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.

Il modo più semplice per eliminare la fatturazione è eliminare il progetto Google Cloud che hai creato per il tutorial. In alternativa, puoi eliminare le singole risorse.

Elimina i cluster

  1. In Cloud Shell, annulla la registrazione ed elimina i cluster blue e green:

    gcloud container fleet memberships unregister blue --gke-cluster=us-west1-b/blue
    gcloud container clusters delete blue --zone us-west1-b --quiet
    
    gcloud container fleet memberships unregister green --gke-cluster=us-west1-c/green
    gcloud container clusters delete green --zone us-west1-c --quiet
    
  2. Elimina la risorsa MuticlusterIngress dal cluster ingress-config:

    kubectl --context ${INGRESS_CONFIG_CLUSTER} delete -f ${WORKDIR}/multicluster-manifests/mci.yaml
    

    Questo comando elimina le risorse di Cloud Load Balancing dal progetto.

  3. Annulla la registrazione ed elimina il cluster ingress-config:

    gcloud container fleet memberships unregister ingress-config --gke-cluster=us-west1-a/ingress-config
    gcloud container clusters delete ingress-config --zone us-west1-a --quiet
    
  4. Verifica che tutti i cluster siano stati eliminati:

    gcloud container clusters list
    

    L'output è il seguente:

    *&lt;null&gt;*
    
  5. Reimposta il file kubeconfig:

    unset KUBECONFIG
    
  6. Rimuovi la cartella WORKDIR:

    cd ${HOME}
    rm -rf ${WORKDIR}
    

Elimina il progetto

  1. Nella console Google Cloud, vai alla pagina Gestisci risorse.

    Vai a Gestisci risorse

  2. Nell'elenco dei progetti, seleziona il progetto che vuoi eliminare, quindi fai clic su Elimina.
  3. Nella finestra di dialogo, digita l'ID del progetto e fai clic su Chiudi per eliminare il progetto.

Passaggi successivi