Percorso di apprendimento: applicazioni scalabili - Crea un cluster


Questo insieme di tutorial è rivolto agli amministratori IT e agli operatori che vogliono per eseguire il deployment, eseguire e gestire ambienti applicativi moderni in esecuzione Google Kubernetes Engine (GKE) Enterprise. Man mano che avanzi in questo insieme di tutorial, imparerai come configurare il monitoraggio e gli avvisi, scalare i carichi di lavoro e simulare i guasti, il tutto utilizzando l'applicazione di microservizi di esempio Cymbal Bank:

  1. Crea un cluster ed esegui il deployment di un'applicazione di esempio (questo tutorial)
  2. Monitoraggio con Google Cloud Managed Service per Prometheus
  3. Scala i carichi di lavoro
  4. Simula un errore
  5. Gestisci in modo centralizzato la gestione dei cambiamenti

Panoramica e obiettivi

Cymbal Bank utilizza Python e Java per eseguire i vari servizi e include una PostgreSQL. Non è necessaria esperienza con questi linguaggi o con la piattaforma di database per completare la serie di tutorial, poiché Cymbal Bank è solo un'applicazione di esempio per mostrare come GKE Enterprise può soddisfare le esigenze della tua attività.

In questo tutorial imparerai a creare un singolo cluster GKE e a eseguire il deployment di un'applicazione di microservizi di esempio denominata Cymbal Bank in un cluster GKE. Imparerai a completare le seguenti attività:

  • Crea un cluster GKE che utilizza Autopilot.

  • Esegui il deployment di un'applicazione di esempio basata su microservizi denominata Cymbal Bank.

  • Usa la console Google Cloud per esplorare le risorse GKE utilizzate l'applicazione di esempio di Cymbal Bank.

Costi

Se attivi GKE Enterprise e esegui il deployment dell'applicazione di esempio Cymbal Bank per questa serie di tutorial, dovrai sostenere costi per GKE Enterprise su Google Cloud per ogni cluster, come indicato nella nostra pagina dei prezzi, finché non disattivi GKE Enterprise o non elimini il progetto.

Sei inoltre responsabile di altri costi di Google Cloud sostenuti durante l'esecuzione del Applicazione di esempio di Cymbal Bank, ad esempio addebiti per VM di Compute Engine e bilanciatori del carico.

Prima di iniziare

I primi tutorial di questa serie utilizzano principalmente le funzionalità di base disponibili per tutti gli utenti di GKE, ma man mano che avanzi nei tutorial utilizzerai più funzionalità aggiuntive disponibili solo tramite il livello Enterprise.

In questo primo tutorial della serie, completa tutti i seguenti passaggi di configurazione "Prima di iniziare" prima di iniziare. Devi completare solo una volta i seguenti passaggi "Prima di iniziare".

Configura la shell e gli strumenti

In questa serie di tutorial, utilizzerai i seguenti strumenti per eseguire il deployment il tuo ambiente:

  • gcloud CLI: crea e gestisci i cluster e i parchi risorse GKE, insieme ad altri servizi Google Cloud.
  • kubectl: gestisci Kubernetes, il sistema di orchestrazione dei cluster utilizzato da GKE Enterprise.

Per eseguire i comandi in questa pagina, configura Google Cloud CLI e kubectl in uno dei seguenti ambienti di sviluppo:

Cloud Shell

Per utilizzare un terminale online con l'interfaccia a riga di comando gcloud e kubectl già configurati, attiva Cloud Shell:

Nella parte inferiore di questa pagina, viene avviata una sessione di Cloud Shell e visualizzato un prompt della riga di comando. La sessione può richiedere alcuni secondi vengono inizializzate.

Shell locale

Per utilizzare un ambiente di sviluppo locale:

Configura il progetto

Segui questi passaggi per configurare un progetto Google Cloud, inclusa l'abilitazione di fatturazione e i servizi GKE. Questo è il progetto in cui abilitare GKE Enterprise.

Potresti aver bisogno di un amministratore Google Cloud della tua organizzazione per concederti accesso alla creazione o all'utilizzo di un progetto e all'abilitazione delle API.

  1. Nella console Google Cloud, vai alla pagina Google Kubernetes Engine:

    Vai alla pagina di Google Kubernetes Engine

  2. Crea o seleziona un progetto. Questo è il progetto in cui abiliti con GKE Enterprise.

  3. Se richiesto, abilita l'API GKE Enterprise.

  4. Attendi che l'API e i relativi servizi siano abilitati. L'operazione può richiedere diversi minuti.

  5. Make sure that billing is enabled for your Google Cloud project.

Dopo aver abilitato GKE, abilita la versione Google Kubernetes Engine (GKE) Enterprise:

  1. Nella console Google Cloud, vai alla pagina GKE Enterprise:

    Vai alla pagina di GKE Enterprise

  2. Seleziona Scopri di più sulla versione Enterprise di Google Kubernetes Engine (GKE).

  3. Se hai l'idoneità, puoi selezionare l'opzione Inizia la tua prova gratuita di 90 giorni.

  4. Seleziona Attiva GKE Enterprise e poi Conferma.

Concedi ruoli IAM

Se sei il proprietario del progetto (ad esempio se lo hai creato tu), hai già tutte le autorizzazioni necessarie per completare questi tutorial. Se non sei il proprietario, assicurati che il tuo account Google Cloud disponga dei ruoli IAM necessari per il progetto selezionato per questo insieme di tutorial. Anche in questo caso, potresti aver bisogno di un amministratore Google Cloud nella tua organizzazione per aiutarti a concedere i ruoli richiesti.

Nei comandi seguenti, sostituisci PROJECT_ID con il l'ID generato automaticamente del progetto che hai creato o selezionato nel sezione precedente. L'ID progetto è spesso diverso dal nome del progetto. Ad esempio, il progetto potrebbe essere scalable-apps, ma l'ID progetto potrebbe essere scalable-apps-567123.

Grant roles to your user account. Run the following command once for each of the following IAM roles: roles/resourcemanager.projectIamAdmin, roles/iam.serviceAccountAdmin, roles/iam.serviceAccountUser, roles/iam.securityAdmin, roles/serviceusage.serviceUsageAdmin, roles/container.admin, roles/logging.logWriter, roles/gkehub.admin, roles/viewer, roles/monitoring.viewer

$ gcloud projects add-iam-policy-binding PROJECT_ID --member="USER_IDENTIFIER" --role=ROLE
  • Replace PROJECT_ID with your project ID.
  • Replace USER_IDENTIFIER with the identifier for your user account. For example, user:myemail@example.com.

  • Replace ROLE with each individual role.

clona l'applicazione di esempio

Clona il repository Git che include tutti i manifest di esempio per Cymbal Bank:

  git clone https://github.com/GoogleCloudPlatform/bank-of-anthos
  cd bank-of-anthos/

Crea un cluster

Dopo aver completato tutti i passaggi preliminari nelle sezioni precedenti, ora puoi iniziare a creare un cluster Google Kubernetes Engine ed eseguire il deployment di un'applicazione di esempio.

GKE è un servizio Kubernetes gestito che puoi utilizzare per eseguire il deployment e gestire applicazioni containerizzate. Un ambiente GKE è costituito da nodes, ovvero macchine virtuali (VM) Compute Engine, raggruppate insieme a formare un cluster.

I cluster GKE possono anche essere raggruppati in parchi risorse: gruppi logici di cluster che possono essere gestiti insieme. Molti Funzionalità di GKE Enterprise, incluse quelle che utilizzerai più avanti basati su parchi risorse e i principi di uguaglianza e fiducia dei parchi risorse.

  • Crea un cluster GKE da utilizzare nel resto dei tutorial di questa serie:

    gcloud container clusters create-auto scalable-apps \
      --project=PROJECT_ID \
      --region=REGION \
      --enable-fleet
    

    Sostituisci quanto segue:

    • PROJECT_ID con l'ID generato automaticamente del creato nella sezione precedente. L'ID progetto è spesso diverso dal nome del progetto. Ad esempio, il tuo progetto potrebbe essere scalable-apps, ma l'ID progetto potrebbe essere scalable-apps-567123.
    • REGION con la regione in cui vuoi creare il tuo cluster, ad esempio us-central1.

    La creazione del cluster e la verifica del corretto funzionamento richiedono alcuni minuti.

In questo insieme di tutorial, utilizzerai i cluster in modalità Autopilot e alcuni intervalli di indirizzi IP predefiniti quando crei i cluster. Un deployment di produzione le tue applicazioni richiedono una pianificazione più attenta degli indirizzi IP. Nella Autopilot, Google gestisce la configurazione del cluster, tra cui scalabilità automatica, sicurezza e altre impostazioni preconfigurate. I cluster in modalità Autopilot sono ottimizzati per eseguire la maggior parte dei carichi di lavoro di produzione e per eseguire il provisioning delle risorse di calcolo in base ai manifest Kubernetes.

Esegui il deployment di Cymbal Bank

Impacchi le app (chiamate anche carichi di lavoro) in container. Esegui il deployment di set di container come pod ai tuoi nodi.

In questa serie di tutorial esegui il deployment di un'applicazione di esempio basata su microservizi chiamata Cymbal Bank in uno o più cluster GKE. Cymbal Bank utilizza Python e Java per eseguire i vari servizi e include un backend PostgreSQL. Per completare la serie di tutorial, non è necessaria esperienza con questi linguaggi o con la piattaforma di database. Cymbal Bank è solo un'applicazione di esempio per mostrare come la versione Enterprise di Google Kubernetes Engine (GKE) può soddisfare le esigenze della tua attività.

Quando utilizzi Cymbal Bank nell'ambito di questo insieme di tutorial, nel tuo cluster GKE vengono eseguiti i seguenti servizi:

Servizio Lingua Descrizione
frontend Python Espone un server HTTP per pubblicare il sito web. Contiene la pagina di accesso, la pagina di registrazione e la home page.
ledger-writer Java Accetta e convalida le transazioni in arrivo prima di scriverle nel registro.
balance-reader Java Fornisce una cache leggibile ed efficiente dei saldi degli utenti, come letto da ledger-db.
transaction-history Java Fornisce una cache leggibile efficiente delle transazioni passate, come lette da ledger-db.
ledger-db PostgreSQL Libro mastro di tutte le transazioni. Opzione per la precompilazione con le transazioni per gli utenti demo.
user-service Python Gestisce gli account utente e l'autenticazione. Firma i JWT utilizzati per l'autenticazione da altri servizi.
contacts Python Archivia l'elenco di altri account associati a un utente. Utilizzato per il menu a discesa nei moduli "Invia pagamento" e "Deposito".
accounts-db PostgreSQL Database per gli account utente e i dati associati. Opzione per precompilare gli utenti della demo.
loadgenerator Python / Locusta Invia continuamente al frontend richieste che imitano gli utenti. Crea periodicamente nuovi account e simula le transazioni tra di loro.

Per eseguire il deployment di Cymbal Bank nel tuo cluster GKE, completa la seguenti passaggi:

  1. Cymbal Bank utilizza token web JSON (JWT) per gestire l'autenticazione degli utenti. JWT e utilizzare coppie di chiavi asimmetriche per firmare e verificare i token. In Cymbal Bank,userservice crea e firma i token con una chiave privata RSA quando un utente accede e gli altri servizi utilizzano la chiave pubblica corrispondente per convalidare l'utente.

    Crea un JWT RS256 con una forza di 4096 bit:

    openssl genrsa -out jwtRS256.key 4096
    openssl rsa -in jwtRS256.key -outform PEM -pubout -out jwtRS256.key.pub
    

    Se necessario, scaricare e installare gli strumenti OpenSSL per la tua piattaforma.

  2. Un secret Kubernetes può archiviare dati sensibili come chiavi o password. I carichi di lavoro in esecuzione nel cluster possono quindi accedere al secret per ottenere dati sensibili invece di inserirli tramite hardcoded nell'applicazione.

    Crea un secret Kubernetes dal file della chiave che hai creato nella precedente che Cymbal Bank può utilizzare con le richieste di autenticazione:

    kubectl create secret generic jwt-key --from-file=./jwtRS256.key --from-file=./jwtRS256.key.pub
    
  3. Esegui il deployment di Cymbal Bank nel tuo cluster. Il comando seguente esegue il deployment di file manifest nella directory kubernetes-manifests. Ogni file manifest esegue il deployment e la configurazione di uno dei servizi:

    kubectl apply -f kubernetes-manifests/accounts-db.yaml
    kubectl apply -f kubernetes-manifests/balance-reader.yaml
    kubectl apply -f kubernetes-manifests/config.yaml
    kubectl apply -f kubernetes-manifests/contacts.yaml
    kubectl apply -f extras/postgres-hpa/kubernetes-manifests/frontend.yaml
    kubectl apply -f kubernetes-manifests/ledger-db.yaml
    kubectl apply -f kubernetes-manifests/ledger-writer.yaml
    kubectl apply -f extras/postgres-hpa/loadgenerator.yaml
    kubectl apply -f kubernetes-manifests/transaction-history.yaml
    kubectl apply -f kubernetes-manifests/userservice.yaml
    

    Potresti vedere messaggi nell'output kubectl man mano che vengono applicati i manifest al tuo cluster sui limiti Autopilot. Autopilot utilizza richieste di risorse specificate nella configurazione e configurare i nodi che eseguono i carichi di lavoro. Implementazione forzata di Autopilot richieste di risorse minima e massima in base alla classe di computing o della configurazione hardware utilizzata dai carichi di lavoro. Se non specifichi richieste per alcuni container, Autopilot assegna valori predefiniti per consentire l'esecuzione corretta dei container.

    Esamina il seguente manifest di esempio per il servizio frontend:

    # Copyright 2024 Google LLC
    #
    # Licensed under the Apache License, Version 2.0 (the "License");
    # you may not use this file except in compliance with the License.
    # You may obtain a copy of the License at
    #
    #     https://www.apache.org/licenses/LICENSE-2.0
    #
    # Unless required by applicable law or agreed to in writing, software
    # distributed under the License is distributed on an "AS IS" BASIS,
    # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
    # See the License for the specific language governing permissions and
    # limitations under the License.
    
    apiVersion: v1
    kind: Service
    metadata:
      labels:
        application: bank-of-anthos
        environment: development
        team: frontend
        tier: web
      name: frontend
    spec:
      ports:
        - name: http
          port: 80
          targetPort: 8080
      selector:
        app: frontend
        application: bank-of-anthos
        environment: development
        team: frontend
        tier: web
      type: LoadBalancer
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        application: bank-of-anthos
        environment: development
        team: frontend
        tier: web
      name: frontend
    spec:
      selector:
        matchLabels:
          app: frontend
          application: bank-of-anthos
          environment: development
          team: frontend
          tier: web
      template:
        metadata:
          annotations:
            proxy.istio.io/config: '{ "holdApplicationUntilProxyStarts": true }'
          labels:
            app: frontend
            application: bank-of-anthos
            environment: development
            team: frontend
            tier: web
        spec:
          containers:
            - env:
                - name: VERSION
                  value: v0.6.5
                - name: PORT
                  value: "8080"
                - name: ENABLE_TRACING
                  value: "true"
                - name: SCHEME
                  value: http
                - name: LOG_LEVEL
                  value: info
                - name: DEFAULT_USERNAME
                  valueFrom:
                    configMapKeyRef:
                      key: DEMO_LOGIN_USERNAME
                      name: demo-data-config
                - name: DEFAULT_PASSWORD
                  valueFrom:
                    configMapKeyRef:
                      key: DEMO_LOGIN_PASSWORD
                      name: demo-data-config
                - name: REGISTERED_OAUTH_CLIENT_ID
                  valueFrom:
                    configMapKeyRef:
                      key: DEMO_OAUTH_CLIENT_ID
                      name: oauth-config
                      optional: true
                - name: ALLOWED_OAUTH_REDIRECT_URI
                  valueFrom:
                    configMapKeyRef:
                      key: DEMO_OAUTH_REDIRECT_URI
                      name: oauth-config
                      optional: true
              envFrom:
                - configMapRef:
                    name: environment-config
                - configMapRef:
                    name: service-api-config
              image: us-central1-docker.pkg.dev/bank-of-anthos-ci/bank-of-anthos/frontend:v0.6.5@sha256:d72050f70d12383e4434ad04d189b681dc625f696087ddf0b5df641645c9dafa
              livenessProbe:
                httpGet:
                  path: /ready
                  port: 8080
                initialDelaySeconds: 60
                periodSeconds: 15
                timeoutSeconds: 30
              name: front
              readinessProbe:
                httpGet:
                  path: /ready
                  port: 8080
                initialDelaySeconds: 10
                periodSeconds: 5
                timeoutSeconds: 10
              resources:
                limits:
                  cpu: 250m
                  memory: 128Mi
                requests:
                  cpu: 100m
                  memory: 64Mi
              securityContext:
                allowPrivilegeEscalation: false
                capabilities:
                  drop:
                    - all
                privileged: false
                readOnlyRootFilesystem: true
              volumeMounts:
                - mountPath: /tmp
                  name: tmp
                - mountPath: /tmp/.ssh
                  name: publickey
                  readOnly: true
          securityContext:
            fsGroup: 1000
            runAsGroup: 1000
            runAsNonRoot: true
            runAsUser: 1000
          serviceAccountName: bank-of-anthos
          terminationGracePeriodSeconds: 5
          volumes:
            - emptyDir: {}
              name: tmp
            - name: publickey
              secret:
                items:
                  - key: jwtRS256.key.pub
                    path: publickey
                secretName: jwt-key

    Questo manifest per le richieste di servizio frontend che richiedono 100m di CPU e 64Mi. e imposta limiti di 250m di CPU e 128Mi per pod.

    Quando esegui il deployment di un carico di lavoro in un cluster Autopilot, GKE convalida la configurazione del carico di lavoro rispetto ai valori minimo e massimo consentiti per la classe di computing o la configurazione hardware selezionata (ad esempio GPU). Se le tue richieste sono inferiori al minimo, Autopilot modifica automaticamente la configurazione del carico di lavoro in modo da rientrare nell'intervallo consentito. Questi messaggi indicano che sono stati applicati i limiti appropriati assegnati automaticamente.

  4. Attendi che i pod siano pronti. Usa kubectl per controllare lo stato della Pod:

    kubectl get pods
    

    La colonna STATUS cambia da Pending a ContainerCreating. Sono necessari alcuni minuti affinché tutti i pod siano in stato Running, come mostrato nell'esempio di output riportato di seguito:

    NAME                                  READY   STATUS    RESTARTS   AGE
    accounts-db-6f589464bc-6r7b7          1/1     Running   0          99s
    balancereader-797bf6d7c5-8xvp6        1/1     Running   0          99s
    contacts-769c4fb556-25pg2             1/1     Running   0          98s
    frontend-7c96b54f6b-zkdbz             1/1     Running   0          98s
    ledger-db-5b78474d4f-p6xcb            1/1     Running   0          98s
    ledgerwriter-84bf44b95d-65mqf         1/1     Running   0          97s
    loadgenerator-559667b6ff-4zsvb        1/1     Running   0          97s
    transactionhistory-5569754896-z94cn   1/1     Running   0          97s
    userservice-78dc876bff-pdhtl          1/1     Running   0          96s
    

    Quando tutti i pod sono nello stato Running, vai al passaggio successivo. Anche in questo caso, sono necessari alcuni minuti perché tutti i pod si trovino in un ambiente Running stato. È normale che alcuni pod riportino uno stato READY di 0/1 fino a quando Cymbal Bank non sarà pronta a gestire correttamente il traffico.

  5. Il servizio frontend espone un server HTTP per pubblicare il sito web di Cymbal Bank, incluse la pagina di accesso, la pagina di registrazione e la home page. Un traffico in entrata definisce le regole per instradare il traffico HTTP(S) alle applicazioni in esecuzione in un cluster utilizzando un bilanciatore del carico HTTP(S) di Google Cloud.

    Ottieni l'indirizzo IP esterno per l'Ingress frontend:

    kubectl get ingress frontend | awk '{print $4}'
    
  6. In una finestra del browser web, apri l'indirizzo IP mostrato nell'output del kubectl get ingress per accedere alla tua istanza di Cymbal Bank.

    Le credenziali predefinite vengono compilate automaticamente, quindi puoi accedere all'app ed esplorare alcune delle transazioni e dei saldi di esempio. Non sono necessarie azioni specifiche, tranne che per verificare che Cymbal Bank funzioni correttamente. Potrebbero essere necessari uno o due minuti prima che tutti i servizi comunichino correttamente e ti consentano di accedere.

Esplora il deployment

Dopo aver creato un cluster GKE ed eseguito il deployment dei carichi di lavoro, potresti devi modificare le impostazioni o esaminare le prestazioni dell'applicazione. In questa sezione, imparerai a utilizzare la console Google Cloud per esaminare le risorse che fanno parte del tuo cluster e dell'applicazione di esempio Cymbal Bank.

Come introdotto durante la creazione del cluster, le funzionalità di GKE Enterprise si basano sull'idea del parco risorse: un raggruppamento logico di cluster Kubernetes che possono essere gestiti insieme. Ad esempio, potresti avere più cluster utilizzati da team diversi, mantenere repliche dell'applicazione in regioni diverse per motivi di latenza e affidabilità o per segmentare i carichi di lavoro con requisiti di sicurezza diversi. Un parco risorse consente di organizzare gruppi di questi cluster correlati.

La panoramica di GKE Enterprise nella console Google Cloud offre una vista di alto livello dell'intero parco risorse. Quando hai creato cluster GKE, è stato registrato automaticamente nel parco risorse utilizzando il parametro --enable-fleet.

Per visualizzare le informazioni su GKE Enterprise e sul parco risorse, vai alla pagina Panoramica nella console Google Cloud:

Vai alla panoramica di GKE Enterprise

La pagina Panoramica mostra le seguenti informazioni:

  • Quanti cluster sono presenti nel tuo parco risorse e se sono in stato integro.
  • L'utilizzo delle risorse del tuo parco risorse, tra cui l'utilizzo di CPU, memoria e disco, aggregato per parco risorse e per cluster.
  • Eventuali problemi di sicurezza identificati per il tuo parco risorse, la copertura di Policy Controller a livello di parco risorse e lo stato di sincronizzazione dei pacchetti Config Sync. Aggiungerai Policy Controller e Config Sync al tuo cluster nei tutorial futuri di questa serie.

La pagina Cluster di GKE mostra tutti i cluster nel progetto. I cluster registrati in un parco risorse sono elencati nella colonna Parco risorse.

Nelle sezioni seguenti, esaminerai più da vicino le risorse GKE di Cymbal Bank.

Cluster

In questo tutorial hai creato un cluster GKE e hai eseguito il deployment Carichi di lavoro di Cymbal Bank.

  1. Nella pagina Google Kubernetes Engine della console Google Cloud, vai a Cluster .

    Vai alla pagina Cluster

  2. Fai clic sul cluster scalable-apps di cui è stato eseguito il deployment. Nella pagina dei dettagli del cluster che si apre, puoi visualizzare i dettagli di base del cluster, nonché le configurazioni di rete e sicurezza del cluster. Puoi anche vedere quali Le funzionalità GKE sono abilitate in questo cluster nella sezione Funzionalità. .

Osservabilità

Puoi visualizzare le metriche di base relative all'integrità e alle prestazioni del cluster. Nel prossimo tutorial di questa serie, abiliterai Google Cloud Managed Service per Prometheus per un monitoraggio e un'osservabilità più granulari.

  1. Seleziona il tuo cluster dalla pagina Cluster di Google Kubernetes Engine della console Google Cloud, poi vai alla scheda Osservabilità.

  2. Esamina alcuni elementi grafici delle metriche, ad esempio CPU e Memoria. Questa visualizza consente di monitorare le prestazioni delle diverse parti dei carichi di lavoro del cluster senza dover implementare funzionalità di monitoraggio aggiuntive.

  3. Per visualizzare i log in streaming dal tuo cluster, seleziona la scheda Log. Puoi filtra per gravità dei log o crea filtri personalizzati per visualizzare dati specifici spazi dei nomi, servizi o pod. Come per gli avvisi e gli eventi dei pod, questa visualizzazione raccolta dei log del cluster può aiutarti a risolvere rapidamente i problemi utilizzando la console Google Cloud.

    È normale vedere voci di log durante il primo dispiegamento di Cymbal Bank quando alcuni servizi non possono ancora comunicare.

  4. Seleziona la scheda Errori app. Durante l'esecuzione dei carichi di lavoro, puoi visualizzare gli avvisi e gli eventi raccolti nella console Google Cloud. Questo approccio può aiutare eseguire il debug dei problemi senza doverti connettere al cluster, ai nodi o ai pod singolarmente.

    Ancora una volta, è normale vedere gli eventi registrati durante il primo dispiegamento di Cymbal Bank quando alcuni servizi non possono ancora comunicare.

Carichi di lavoro

La pagina GKE della console Google Cloud ha una sezione Carichi di lavoro che mostra una visualizzazione aggregata dei carichi di lavoro in esecuzione su tutti cluster GKE.

  1. Nella pagina Google Kubernetes Engine della console Google Cloud, vai al file Carichi di lavoro .

    Vai alla pagina Carichi di lavoro

    La scheda Panoramica mostra un elenco di carichi di lavoro e spazi dei nomi del cluster GKE. Puoi filtrare per spazi dei nomi per vedere quali carichi di lavoro vengono eseguiti in ogni spazio dei nomi.

Servizi e ingress

La visualizzazione Servizi e Ingress mostra le risorse di servizio e Ingress del progetto. Un servizio espone un insieme di pod come servizio di rete con un mentre una risorsa Ingress gestisce l'accesso esterno ai servizi in un cluster.

  1. Nella pagina Google Kubernetes Engine della console Google Cloud, vai alla pagina Gateway, servizi e Ingress.

    Vai alla pagina Gateway, servizi e Ingress

  2. Per trovare l'ingresso Cymbal Bank, fai clic sulla scheda "Ingresso" e individua l'ingresso con il nome frontend. Un ingress gestisce il traffico in entrata per la tua applicazione. Puoi visualizzare informazioni sul bilanciatore del carico, sulle porte e sugli endpoint esterni.

  3. Fai clic sull'indirizzo IP per il traffico frontend in entrata, ad esempio 198.51.100.143:80. Questo indirizzo apre l'interfaccia web di Cymbal Bank.

Esegui la pulizia

L'insieme di tutorial per Cymbal Bank è pensato per essere completato uno dopo il e l'altro. Man mano che avanzi nella serie di tutorial, acquisisci nuove competenze e utilizzi altri prodotti e servizi Google Cloud.

Se vuoi fare una pausa prima di passare al tutorial successivo ed evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che hai creato.

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Passaggi successivi

Scopri come monitorare i carichi di lavoro in GKE Enterprise utilizzando Google Cloud Managed Service per Prometheus e Cloud Monitoring nel prossimo tutorial.