Tutorial: risoluzione dei problemi locali di un servizio Cloud Run


Questo tutorial mostra come uno sviluppatore di servizi può risolvere i problemi di un servizio Cloud Run non funzionante utilizzando gli strumenti di osservabilità di Google Cloud per il rilevamento e un flusso di lavoro di sviluppo locale per l'indagine.

Questo "case study" contenente le istruzioni dettagliate è complementare alla guida alla risoluzione dei problemi utilizza un progetto di esempio che, al momento del deployment, genera errori di runtime, che puoi risolvere per individuare e risolvere il problema.

Obiettivi

  • Scrivi, crea ed esegui il deployment di un servizio in Cloud Run
  • Utilizzare Error Reporting e Cloud Logging per identificare un errore
  • Recupera l'immagine container da Container Registry per un'analisi delle cause principali
  • Correggi il servizio di "produzione", quindi miglioralo per mitigare problemi futuri.

Costi

In questo documento vengono utilizzati i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi in base all'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud possono essere idonei a una prova senza costi aggiuntivi.

Prima di iniziare

  1. Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  6. Abilita l'API Cloud Run Admin
  7. Installa e inizializza gcloud CLI.
  8. Aggiorna i componenti:
    gcloud components update
  9. Segui le istruzioni per installare Docker in locale

Ruoli obbligatori

Per ottenere le autorizzazioni necessarie per completare il tutorial, chiedi all'amministratore di concederti i seguenti ruoli IAM sul tuo progetto:

Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso.

Potresti anche riuscire a ottenere le autorizzazioni richieste tramite i ruoli personalizzati o altri ruoli predefiniti.

Configurazione dei valori predefiniti di gcloud

Per configurare gcloud con i valori predefiniti per il tuo servizio Cloud Run:

  1. Imposta il progetto predefinito:

    gcloud config set project PROJECT_ID

    Sostituisci PROJECT_ID con il nome del progetto che hai creato per questo tutorial.

  2. Configura gcloud per la regione scelta:

    gcloud config set run/region REGION

    Sostituisci REGION con la regione Cloud Run supportata che preferisci.

Località Cloud Run

Cloud Run è regionale, il che significa che l'infrastruttura che esegue i tuoi servizi Cloud Run si trova in una regione specifica ed è gestita da Google per essere disponibile in modo ridondante in tutte le zone all'interno della regione.

Soddisfare i requisiti di latenza, disponibilità o durabilità sono fattori principali per la selezione della regione in cui vengono eseguiti i servizi Cloud Run. In genere puoi selezionare la regione più vicina ai tuoi utenti, ma devi considerare la località degli altri prodotti Google Cloud utilizzati dal tuo servizio Cloud Run. L'utilizzo combinato di prodotti Google Cloud in più località può influire sulla latenza e sui costi del tuo servizio.

Cloud Run è disponibile nelle regioni seguenti:

Soggetto ai prezzi di Livello 1

Soggetto ai prezzi di Livello 2

  • africa-south1 (Johannesburg)
  • asia-east2 (Hong Kong)
  • asia-northeast3 (Seul, Corea del Sud)
  • asia-southeast1 (Singapore)
  • asia-southeast2 (Giacarta)
  • asia-south1 (Mumbai, India)
  • asia-south2 (Delhi, India)
  • australia-southeast1 (Sydney)
  • australia-southeast2 (Melbourne)
  • europe-central2 (Varsavia, Polonia)
  • europe-west10 (Berlino)
  • europe-west12 (Torino)
  • europe-west2 (Londra, Regno Unito) icona foglia A basse emissioni di CO2
  • europe-west3 (Francoforte, Germania) icona foglia A basse emissioni di CO2
  • europe-west6 (Zurigo, Svizzera) icona foglia A basse emissioni di CO2
  • me-central1 (Doha)
  • me-central2 (Dammam)
  • northamerica-northeast1 (Montreal) icona foglia A basse emissioni di CO2
  • northamerica-northeast2 (Toronto) icona foglia A basse emissioni di CO2
  • southamerica-east1 (San Paolo, Brasile) icona foglia A basse emissioni di CO2
  • southamerica-west1 (Santiago, Cile) icona foglia A basse emissioni di CO2
  • us-west2 (Los Angeles)
  • us-west3 (Salt Lake City)
  • us-west4 (Las Vegas)

Se hai già creato un servizio Cloud Run, puoi visualizzare la regione nella dashboard di Cloud Run all'interno della console Google Cloud.

Assemblaggio del codice

Crea passo dopo passo un nuovo servizio di messaggistica di Cloud Run. Ti ricordiamo che questo servizio crea un errore di runtime per l'esercizio di risoluzione dei problemi.

  1. Crea un nuovo progetto:

    Node.js

    Creare un progetto Node.js definendo il pacchetto di servizio, le dipendenze iniziali e alcune operazioni comuni.

    1. Crea una nuova directory hello-service:

      mkdir hello-service
      cd hello-service
      
    2. Crea un nuovo progetto Node.js generando un file package.json:

      npm init --yes
      npm install --save express@4
      
    3. Apri il nuovo file package.json nell'editor e configura uno script start per eseguire node index.js. Al termine, il file avrà il seguente aspetto:

      {
        "name": "hello-broken",
        "description": "Broken Cloud Run service for troubleshooting practice",
        "version": "1.0.0",
        "private": true,
        "main": "index.js",
        "scripts": {
          "start": "node index.js",
          "test": "echo \"Error: no test specified\" && exit 0",
          "system-test": "NAME=Cloud c8 mocha -p -j 2 test/system.test.js --timeout=360000 --exit"
        },
        "engines": {
          "node": ">=16.0.0"
        },
        "author": "Google LLC",
        "license": "Apache-2.0",
        "dependencies": {
          "express": "^4.17.1"
        },
        "devDependencies": {
          "c8": "^8.0.0",
          "google-auth-library": "^9.0.0",
          "got": "^11.0.0",
          "mocha": "^10.0.0"
        }
      }
      

    Se continui a sviluppare questo servizio oltre il tutorial immediato, valuta la possibilità di compilare la descrizione, di fornire l'autore e di valutare la licenza. Per maggiori dettagli, leggi la documentazione dipackage.json.

    Python

    1. Crea una nuova directory hello-service:

      mkdir hello-service
      cd hello-service
      
    2. Crea un file requirements.txt e copia le tue dipendenze al suo interno:

      Flask==3.0.3
      pytest==8.2.0; python_version > "3.0"
      # pin pytest to 4.6.11 for Python2.
      pytest==4.6.11; python_version < "3.0"
      gunicorn==22.0.0
      Werkzeug==3.0.3
      

    Go

    1. Crea una nuova directory hello-service:

      mkdir hello-service
      cd hello-service
      
    2. Crea un progetto Go inizializzando un nuovo modulo Go:

      go mod init example.com/hello-service
      

    Puoi aggiornare il nome specifico come preferisci: devi aggiornare il nome se il codice viene pubblicato in un repository di codice raggiungibile dal web.

    Java

    1. Crea un nuovo progetto Maven:

      mvn archetype:generate \
        -DgroupId=com.example.cloudrun \
        -DartifactId=hello-service \
        -DarchetypeArtifactId=maven-archetype-quickstart \
        -DinteractiveMode=false
      
    2. Copia le dipendenze nell'elenco delle dipendenze pom.xml (tra gli elementi <dependencies>):

      <dependency>
        <groupId>com.sparkjava</groupId>
        <artifactId>spark-core</artifactId>
        <version>2.9.4</version>
      </dependency>
      <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-api</artifactId>
        <version>2.0.12</version>
      </dependency>
      <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-simple</artifactId>
        <version>2.0.12</version>
      </dependency>
      
    3. Copia l'impostazione della build in pom.xml (sotto gli elementi <dependencies>):

      <build>
        <plugins>
          <plugin>
            <groupId>com.google.cloud.tools</groupId>
            <artifactId>jib-maven-plugin</artifactId>
            <version>3.4.0</version>
            <configuration>
              <to>
                <image>gcr.io/PROJECT_ID/hello-service</image>
              </to>
            </configuration>
          </plugin>
        </plugins>
      </build>
      

  2. Crea un servizio HTTP per gestire le richieste in entrata:

    Node.js

    const express = require('express');
    const app = express();
    
    app.get('/', (req, res) => {
      console.log('hello: received request.');
    
      const {NAME} = process.env;
      if (!NAME) {
        // Plain error logs do not appear in Stackdriver Error Reporting.
        console.error('Environment validation failed.');
        console.error(new Error('Missing required server parameter'));
        return res.status(500).send('Internal Server Error');
      }
      res.send(`Hello ${NAME}!`);
    });
    const port = parseInt(process.env.PORT) || 8080;
    app.listen(port, () => {
      console.log(`hello: listening on port ${port}`);
    });

    Python

    import json
    import os
    
    from flask import Flask
    
    
    app = Flask(__name__)
    
    
    @app.route("/", methods=["GET"])
    def index():
        """Example route for testing local troubleshooting.
    
        This route may raise an HTTP 5XX error due to missing environment variable.
        """
        print("hello: received request.")
    
        NAME = os.getenv("NAME")
    
        if not NAME:
            print("Environment validation failed.")
            raise Exception("Missing required service parameter.")
    
        return f"Hello {NAME}"
    
    
    if __name__ == "__main__":
        PORT = int(os.getenv("PORT")) if os.getenv("PORT") else 8080
    
        # This is used when running locally. Gunicorn is used to run the
        # application on Cloud Run. See entrypoint in Dockerfile.
        app.run(host="127.0.0.1", port=PORT, debug=True)

    Go

    
    // Sample hello demonstrates a difficult to troubleshoot service.
    package main
    
    import (
    	"fmt"
    	"log"
    	"net/http"
    	"os"
    )
    
    func main() {
    	log.Print("hello: service started")
    
    	http.HandleFunc("/", helloHandler)
    
    
    	port := os.Getenv("PORT")
    	if port == "" {
    		port = "8080"
    		log.Printf("Defaulting to port %s", port)
    	}
    
    	log.Printf("Listening on port %s", port)
    	log.Fatal(http.ListenAndServe(fmt.Sprintf(":%s", port), nil))
    }
    
    func helloHandler(w http.ResponseWriter, r *http.Request) {
    	log.Print("hello: received request")
    
    	name := os.Getenv("NAME")
    	if name == "" {
    		log.Printf("Missing required server parameter")
    		// The panic stack trace appears in Cloud Error Reporting.
    		panic("Missing required server parameter")
    	}
    
    	fmt.Fprintf(w, "Hello %s!\n", name)
    }
    

    Java

    import static spark.Spark.get;
    import static spark.Spark.port;
    
    import org.slf4j.Logger;
    import org.slf4j.LoggerFactory;
    
    public class App {
    
      private static final Logger logger = LoggerFactory.getLogger(App.class);
    
      public static void main(String[] args) {
        int port = Integer.parseInt(System.getenv().getOrDefault("PORT", "8080"));
        port(port);
    
        get(
            "/",
            (req, res) -> {
              logger.info("Hello: received request.");
              String name = System.getenv("NAME");
              if (name == null) {
                // Standard error logs do not appear in Stackdriver Error Reporting.
                System.err.println("Environment validation failed.");
                String msg = "Missing required server parameter";
                logger.error(msg, new Exception(msg));
                res.status(500);
                return "Internal Server Error";
              }
              res.status(200);
              return String.format("Hello %s!", name);
            });
      }
    }

  3. Crea un Dockerfile per definire l'immagine container utilizzata per il deployment del servizio:

    Node.js

    
    # Use the official lightweight Node.js image.
    # https://hub.docker.com/_/node
    FROM node:20-slim
    # Create and change to the app directory.
    WORKDIR /usr/src/app
    
    # Copy application dependency manifests to the container image.
    # A wildcard is used to ensure copying both package.json AND package-lock.json (when available).
    # Copying this first prevents re-running npm install on every code change.
    COPY package*.json ./
    
    # Install dependencies.
    # if you need a deterministic and repeatable build create a
    # package-lock.json file and use npm ci:
    # RUN npm ci --omit=dev
    # if you need to include development dependencies during development
    # of your application, use:
    # RUN npm install --dev
    
    RUN npm install --omit=dev
    
    # Copy local code to the container image.
    COPY . ./
    
    # Run the web service on container startup.
    CMD [ "npm", "start" ]
    

    Python

    
    # Use the official Python image.
    # https://hub.docker.com/_/python
    FROM python:3.11
    
    # Allow statements and log messages to immediately appear in the Cloud Run logs
    ENV PYTHONUNBUFFERED True
    
    # Copy application dependency manifests to the container image.
    # Copying this separately prevents re-running pip install on every code change.
    COPY requirements.txt ./
    
    # Install production dependencies.
    RUN pip install -r requirements.txt
    
    # Copy local code to the container image.
    ENV APP_HOME /app
    WORKDIR $APP_HOME
    COPY . ./
    
    # Run the web service on container startup.
    # Use gunicorn webserver with one worker process and 8 threads.
    # For environments with multiple CPU cores, increase the number of workers
    # to be equal to the cores available.
    # Timeout is set to 0 to disable the timeouts of the workers to allow Cloud Run to handle instance scaling.
    CMD exec gunicorn --bind :$PORT --workers 1 --threads 8 --timeout 0 main:app
    

    Go

    
    # Use the offical golang image to create a binary.
    # This is based on Debian and sets the GOPATH to /go.
    # https://hub.docker.com/_/golang
    FROM golang:1.21-bookworm as builder
    
    # Create and change to the app directory.
    WORKDIR /app
    
    # Retrieve application dependencies.
    # This allows the container build to reuse cached dependencies.
    # Expecting to copy go.mod and if present go.sum.
    COPY go.* ./
    RUN go mod download
    
    # Copy local code to the container image.
    COPY . ./
    
    # Build the binary.
    RUN go build -v -o server
    
    # Use the official Debian slim image for a lean production container.
    # https://hub.docker.com/_/debian
    # https://docs.docker.com/develop/develop-images/multistage-build/#use-multi-stage-builds
    FROM debian:bookworm-slim
    RUN set -x && apt-get update && DEBIAN_FRONTEND=noninteractive apt-get install -y \
        ca-certificates && \
        rm -rf /var/lib/apt/lists/*
    
    # Copy the binary to the production image from the builder stage.
    COPY --from=builder /app/server /server
    
    # Run the web service on container startup.
    CMD ["/server"]
    

    Java

    Questo esempio utilizza Jib per creare immagini Docker utilizzando strumenti Java comuni. Jib ottimizza le build di container senza bisogno di un Dockerfile o senza dover installare Docker. Scopri di più sulla creazione di container Java con Jib.

    <plugin>
      <groupId>com.google.cloud.tools</groupId>
      <artifactId>jib-maven-plugin</artifactId>
      <version>3.4.0</version>
      <configuration>
        <to>
          <image>gcr.io/PROJECT_ID/hello-service</image>
        </to>
      </configuration>
    </plugin>
    

Spedizione del codice

Il codice di spedizione prevede tre passaggi: creare un'immagine container con Cloud Build, caricare l'immagine container in Container Registry ed eseguire il deployment dell'immagine container in Cloud Run.

Per spedire il codice:

  1. Crea il tuo container e pubblicalo su Container Registry:

    Node.js

    gcloud builds submit --tag gcr.io/PROJECT_ID/hello-service

    Dove PROJECT_ID è l'ID progetto Google Cloud. Puoi controllare l'ID progetto attuale con gcloud config get-value project.

    Se l'operazione riesce, dovresti visualizzare un messaggio SUCCESS contenente l'ID, l'ora di creazione e il nome dell'immagine. L'immagine è archiviata in Container Registry e può essere riutilizzata, se necessario.

    Python

    gcloud builds submit --tag gcr.io/PROJECT_ID/hello-service

    Dove PROJECT_ID è l'ID progetto Google Cloud. Puoi controllare l'ID progetto attuale con gcloud config get-value project.

    Se l'operazione riesce, dovresti visualizzare un messaggio SUCCESS contenente l'ID, l'ora di creazione e il nome dell'immagine. L'immagine è archiviata in Container Registry e può essere riutilizzata, se necessario.

    Go

    gcloud builds submit --tag gcr.io/PROJECT_ID/hello-service

    Dove PROJECT_ID è l'ID progetto Google Cloud. Puoi controllare l'ID progetto attuale con gcloud config get-value project.

    Se l'operazione riesce, dovresti visualizzare un messaggio SUCCESS contenente l'ID, l'ora di creazione e il nome dell'immagine. L'immagine è archiviata in Container Registry e può essere riutilizzata, se necessario.

    Java

    1. Usa gcloud credentials helper per autorizzare Docker a eseguire il push in Container Registry.
      gcloud auth configure-docker
    2. Utilizza il plug-in Jib Maven per creare il container ed eseguirne il push in Container Registry.
      mvn compile jib:build -Dimage=gcr.io/PROJECT_ID/hello-service

    Dove PROJECT_ID è l'ID progetto Google Cloud. Puoi controllare il tuo ID progetto attuale con gcloud config get-value project.

    Se l'operazione riesce, dovrebbe essere visualizzato il messaggio BUILD SUCCESS. L'immagine è archiviata in Container Registry e, se lo desideri, può essere riutilizzata.

  2. Esegui questo comando per eseguire il deployment della tua app:

    gcloud run deploy hello-service --image gcr.io/PROJECT_ID/hello-service

    Sostituisci PROJECT_ID con l'ID del tuo progetto Google Cloud. hello-service è sia il nome dell'immagine container sia il nome del servizio Cloud Run. Tieni presente che viene eseguito il deployment dell'immagine container nel servizio e nella regione che hai configurato in precedenza in Configurazione di gcloud

    Rispondi y, "Sì", alla richiesta consenti non autenticati. Consulta Gestione dell'accesso per ulteriori dettagli sull'autenticazione basata su IAM.

    Attendi il completamento del deployment: l'operazione può richiedere circa mezzo minuto. Se l'operazione riesce, la riga di comando visualizza l'URL del servizio.

Prova

Prova il servizio per verificare di averlo eseguito correttamente. Le richieste devono avere esito negativo con un errore HTTP 500 o 503 (membri della classe errori del server 5xx). Il tutorial illustra la risoluzione dei problemi relativi a questa risposta di errore.

Al servizio viene assegnato automaticamente un URL navigabile.

  1. Accedi a questo URL con il tuo browser web:

    1. Apri un browser web

    2. Trova l'output dell'URL del servizio con il comando di deployment precedente.

      Se il comando di deployment non ha fornito un URL, si è verificato un problema. Esamina il messaggio di errore e agisci di conseguenza: se non sono presenti indicazioni strategiche, consulta la guida alla risoluzione dei problemi ed eventualmente riprova a eseguire il comando di deployment.

    3. Accedi a questo URL copiandolo nella barra degli indirizzi del browser e premendo INVIO.

  2. Visualizza l'errore HTTP 500 o HTTP 503.

    Se ricevi un errore HTTP 403, potresti aver rifiutato allow unauthenticated invocations al prompt del deployment. Per risolvere il problema, concedi l'accesso non autenticato al servizio:

    gcloud run services add-iam-policy-binding hello-service \
      --member="allUsers" \
      --role="roles/run.invoker"
    

Per maggiori informazioni, consulta Consentire l'accesso pubblico (non autenticato).

Analisi del problema

Verifica che l'errore HTTP 5xx riportato sopra nella sezione Prova si è verificato come errore di runtime in produzione. Questo tutorial illustra una procedura formale per la gestione. Sebbene i processi di risoluzione degli errori di produzione siano molto diversi, questo tutorial presenta una sequenza particolare di passaggi per mostrare l'applicazione di strumenti e tecniche utili.

Per esaminare questo problema dovrai seguire queste fasi:

  • Raccogliere maggiori dettagli sull’errore segnalato per supportare ulteriori indagini e impostare una strategia di mitigazione.
  • Allevia l'impatto degli utenti decidendo se eseguire una correzione o eseguire il rollback a una versione integro nota.
  • Riproduci l'errore per confermare che sono stati raccolti i dettagli corretti e che l'errore non si sia verificato una tantum.
  • Esegui un'analisi della causa principale del bug per trovare il codice, la configurazione o il processo che ha creato l'errore

All'inizio dell'indagine sono presenti un URL, un timestamp e il messaggio "Errore interno del server".

Raccolta di ulteriori dettagli

Raccogli ulteriori informazioni sul problema per capire cosa è successo e determinare i passaggi successivi.

Utilizza gli strumenti di Google Cloud Observability disponibili per raccogliere ulteriori dettagli:

  1. Utilizza la console di Error Reporting, che fornisce una dashboard con dettagli e monitoraggio della ricorrenza per gli errori con una traccia dello stack riconosciuta.

    Vai alla console di Error Reporting

    Screenshot dell&#39;elenco di errori con le colonne &quot;Stato risoluzione&quot;, Occorrenze, Errore e &quot;Rilevato in&quot;.
    Elenco degli errori registrati. Gli errori vengono raggruppati per messaggio tra revisioni, servizi e piattaforme.
  2. Fai clic sull'errore per visualizzare i dettagli dell'analisi dello stack, annotando le chiamate di funzione effettuate appena prima dell'errore.

    Screenshot di una singola analisi dello stack analizzata, che mostra un profilo comune di questo errore.
    La sezione "Esempio di traccia dello stack" nella pagina dei dettagli dell'errore mostra una singola istanza dell'errore. Puoi esaminare ogni singola istanza.
  3. Utilizza Cloud Logging per esaminare la sequenza delle operazioni che hanno portato al problema, inclusi i messaggi di errore non inclusi nella console di Error Reporting a causa della mancanza di un'analisi dello stack di errori riconosciuta:

    Vai alla console di Cloud Logging

    Seleziona Revisione Cloud Run > hello-service dalla prima casella a discesa. In questo modo, le voci di log verranno filtrate in base a quelle generate dal servizio.

Scopri di più sulla visualizzazione dei log in Cloud Run

Esegui il rollback a una versione integro

Se si tratta di un servizio già stabilito, il cui funzionamento è noto, il servizio sarà sottoposto a una precedente revisione su Cloud Run. Questo tutorial usa un nuovo servizio senza versioni precedenti, quindi non puoi eseguire il rollback.

Tuttavia, se hai un servizio con versioni precedenti a cui puoi eseguire il rollback, segui Visualizzazione dei dettagli della revisione per estrarre il nome del container e i dettagli di configurazione necessari per creare un nuovo deployment funzionante del servizio.

Riproduzione dell'errore in corso...

Utilizzando i dettagli ottenuti in precedenza, verifica che il problema si verifichi costantemente nelle condizioni di test.

Invia la stessa richiesta HTTP riprovando e controlla se vengono segnalati lo stesso errore e gli stessi dettagli. La visualizzazione dei dettagli dell'errore potrebbe richiedere del tempo.

Poiché il servizio di esempio in questo tutorial è di sola lettura e non attiva effetti collaterali complessi, la riproduzione degli errori in produzione è sicura. Tuttavia, per molti servizi reali, non sarà così: potresti dover riprodurre gli errori in un ambiente di test o limitare questo passaggio alle indagini locali.

La riproduzione dell'errore stabilisce il contesto per ulteriori lavori. Ad esempio, se gli sviluppatori non sono in grado di riprodurre l'errore, ulteriori indagini potrebbero richiedere un'ulteriore strumentazione del servizio.

Esecuzione dell'analisi delle cause principali

L'analisi delle cause principali è un passaggio importante in una risoluzione dei problemi efficace per garantire la risoluzione del problema invece che di un sintomo.

In precedenza, in questo tutorial hai riprodotto il problema su Cloud Run, a conferma che è attivo quando il servizio è ospitato su Cloud Run. Ora riproduci il problema localmente per determinare se è isolato dal codice o se si verifica solo nell'hosting di produzione.

  1. Se non hai utilizzato l'interfaccia a riga di comando Docker in locale con Container Registry, autenticalo con gcloud:

    gcloud auth configure-docker

    Per gli approcci alternativi, vedi Metodi di autenticazione di Container Registry.

  2. Se il nome dell'immagine del container utilizzato più di recente non è disponibile, la descrizione del servizio contiene le informazioni sull'immagine del container di cui è stato eseguito il deployment più recente:

    gcloud run services describe hello-service

    Trova il nome dell'immagine container all'interno dell'oggetto spec. Un comando più mirato può recuperarlo direttamente:

    gcloud run services describe hello-service \
       --format="value(spec.template.spec.containers.image)"

    Questo comando rivela il nome di un'immagine container come gcr.io/PROJECT_ID/hello-service.

  3. Esegui il pull dell'immagine container da Container Registry al tuo ambiente. Questo passaggio potrebbe richiedere diversi minuti durante il download dell'immagine container:

    docker pull gcr.io/PROJECT_ID/hello-service

    Gli aggiornamenti successivi all'immagine container che riutilizzano questo nome possono essere recuperati con lo stesso comando. Se salti questo passaggio, il comando docker run riportato di seguito estrae un'immagine container se non è presente sulla macchina locale.

  4. Esegui in locale per verificare che il problema non sia univoco di Cloud Run:

    PORT=8080 && docker run --rm -e PORT=$PORT -p 9000:$PORT \
       gcr.io/PROJECT_ID/hello-service

    Analizziamo gli elementi del comando precedente,

    • La variabile di ambiente PORT viene utilizzata dal servizio per determinare la porta su cui rimanere in ascolto all'interno del container.
    • Il comando run avvia il container, in modo predefinito sul comando del punto di ingresso definito nel Dockerfile o su un'immagine del container padre.
    • Il flag --rm elimina l'istanza di container all'uscita.
    • Il flag -e assegna un valore a una variabile di ambiente. -e PORT=$PORT sta propagando la variabile PORT dal sistema locale al container con lo stesso nome di variabile.
    • Il flag -p pubblica il container come servizio disponibile su localhost alla porta 9000. Le richieste a localhost:9000 verranno instradate al container sulla porta 8080. Ciò significa che l'output del servizio relativo al numero di porta in uso non corrisponderà alla modalità di accesso al servizio.
    • L'argomento finale gcr.io/PROJECT_ID/hello-service è un'immagine container tag, un'etichetta leggibile per l'identificatore hash sha256 di un'immagine container. Se non è disponibile localmente, Docker tenta di recuperare l'immagine da un registro remoto.

    Nel browser, apri http://localhost:9000. Controlla nell'output del terminale eventuali messaggi di errore corrispondenti a quelli su {ops_name}}.

    Se il problema non è riproducibile localmente, potrebbe essere univoco dell'ambiente Cloud Run. Consulta la guida alla risoluzione dei problemi di Cloud Run per le aree specifiche da esaminare.

    In questo caso l'errore viene riprodotto localmente.

Ora che l'errore è confermato doppiamente come persistente e causato dal codice del servizio invece che dalla piattaforma di hosting, è il momento di esaminare il codice in modo più approfondito.

Ai fini di questo tutorial, puoi presumere che il codice all'interno del container e il codice nel sistema locale sia identico.

Rivedi l'analisi dello stack del report sugli errori ed esegui un controllo incrociato con il codice per trovare le righe specifiche in errore.

Node.js

Trova l'origine del messaggio di errore nel file index.js, attorno al numero di riga indicato nell'analisi dello stack mostrata nei log:
const {NAME} = process.env;
if (!NAME) {
  // Plain error logs do not appear in Stackdriver Error Reporting.
  console.error('Environment validation failed.');
  console.error(new Error('Missing required server parameter'));
  return res.status(500).send('Internal Server Error');
}

Python

Trova l'origine del messaggio di errore nel file main.py, attorno al numero di riga indicato nell'analisi dello stack mostrata nei log:
NAME = os.getenv("NAME")

if not NAME:
    print("Environment validation failed.")
    raise Exception("Missing required service parameter.")

Go

Trova l'origine del messaggio di errore nel file main.go, attorno al numero di riga indicato nell'analisi dello stack mostrata nei log:

name := os.Getenv("NAME")
if name == "" {
	log.Printf("Missing required server parameter")
	// The panic stack trace appears in Cloud Error Reporting.
	panic("Missing required server parameter")
}

Java

Individua l'origine del messaggio di errore nel file App.java, intorno al numero di riga indicato nell'analisi dello stack mostrata nei log:

String name = System.getenv("NAME");
if (name == null) {
  // Standard error logs do not appear in Stackdriver Error Reporting.
  System.err.println("Environment validation failed.");
  String msg = "Missing required server parameter";
  logger.error(msg, new Exception(msg));
  res.status(500);
  return "Internal Server Error";
}

Quando esamini questo codice, vengono eseguite le seguenti azioni quando la variabile di ambiente NAME non è impostata:

  • Viene registrato un errore in Google Cloud Observability
  • Viene inviata una risposta di errore HTTP

Il problema è causato da una variabile mancante, ma la causa principale è più specifica: la modifica al codice che aggiungeva la dipendenza rigida su una variabile di ambiente non includeva le modifiche correlate agli script di deployment e alla documentazione sui requisiti di runtime.

Risoluzione della causa principale

Ora che abbiamo raccolto il codice e identificato la potenziale causa principale, possiamo adottare le misure necessarie per risolvere il problema.

  • Controlla se il servizio funziona localmente con l'ambiente NAME disponibile:

    1. Esegui il container in locale con la variabile di ambiente aggiunta:

      PORT=8080 && docker run --rm -e PORT=$PORT -p 9000:$PORT \
       -e NAME="Local World!" \
       gcr.io/PROJECT_ID/hello-service
    2. Vai all'indirizzo http://localhost:9000 nel browser.

    3. Guarda il messaggio "Hello Local World!" nella pagina.

  • Modifica l'ambiente di servizio Cloud Run in esecuzione in modo da includere questa variabile:

    1. Esegui il comando services update per aggiungere una variabile di ambiente:

      gcloud run services update hello-service \
        --set-env-vars NAME=Override
      
    2. Attendi qualche secondo mentre Cloud Run crea una nuova revisione basata su quella precedente con l'aggiunta della nuova variabile di ambiente.

  • Verifica che il servizio sia stato risolto:

    1. Vai nel browser all'URL del servizio Cloud Run.
    2. Controlla che nella pagina sia visualizzato il messaggio "Hello Override!".
    3. Verifica che non vengano visualizzati messaggi o errori imprevisti in Cloud Logging o Error Reporting.

Migliorare la velocità futura di risoluzione dei problemi

In questo problema di produzione di esempio, l'errore riguardava la configurazione operativa. Alcune modifiche al codice ridurranno al minimo l'impatto di questo problema in futuro.

  • Migliora il log degli errori in modo da includere dettagli più specifici.
  • Invece di restituire un errore, fai in modo che il servizio utilizzi un valore predefinito sicuro. Se l'utilizzo di un valore predefinito rappresenta una modifica alla funzionalità normale, utilizza un messaggio di avviso a scopo di monitoraggio.

Vediamo come rimuovere la variabile di ambiente NAME come dipendenza rigida.

  1. Rimuovi il codice di gestione NAME esistente:

    Node.js

    const {NAME} = process.env;
    if (!NAME) {
      // Plain error logs do not appear in Stackdriver Error Reporting.
      console.error('Environment validation failed.');
      console.error(new Error('Missing required server parameter'));
      return res.status(500).send('Internal Server Error');
    }

    Python

    NAME = os.getenv("NAME")
    
    if not NAME:
        print("Environment validation failed.")
        raise Exception("Missing required service parameter.")

    Go

    name := os.Getenv("NAME")
    if name == "" {
    	log.Printf("Missing required server parameter")
    	// The panic stack trace appears in Cloud Error Reporting.
    	panic("Missing required server parameter")
    }

    Java

    String name = System.getenv("NAME");
    if (name == null) {
      // Standard error logs do not appear in Stackdriver Error Reporting.
      System.err.println("Environment validation failed.");
      String msg = "Missing required server parameter";
      logger.error(msg, new Exception(msg));
      res.status(500);
      return "Internal Server Error";
    }

  2. Aggiungi un nuovo codice che imposti un valore di riserva:

    Node.js

    const NAME = process.env.NAME || 'World';
    if (!process.env.NAME) {
      console.log(
        JSON.stringify({
          severity: 'WARNING',
          message: `NAME not set, default to '${NAME}'`,
        })
      );
    }

    Python

    NAME = os.getenv("NAME")
    
    if not NAME:
        NAME = "World"
        error_message = {
            "severity": "WARNING",
            "message": f"NAME not set, default to {NAME}",
        }
        print(json.dumps(error_message))

    Go

    name := os.Getenv("NAME")
    if name == "" {
    	name = "World"
    	log.Printf("warning: NAME not set, default to %s", name)
    }

    Java

    String name = System.getenv().getOrDefault("NAME", "World");
    if (System.getenv("NAME") == null) {
      logger.warn(String.format("NAME not set, default to %s", name));
    }

  3. Esegui i test in locale ricreando ed eseguendo il container tramite i casi di configurazione interessati:

    Node.js

    docker build --tag gcr.io/PROJECT_ID/hello-service .

    Python

    docker build --tag gcr.io/PROJECT_ID/hello-service .

    Go

    docker build --tag gcr.io/PROJECT_ID/hello-service .

    Java

    mvn compile jib:build

    Verifica che la variabile di ambiente NAME continui a funzionare:

    PORT=8080 && docker run --rm -e PORT=$PORT -p 9000:$PORT \
     -e NAME="Robust World" \
     gcr.io/PROJECT_ID/hello-service

    Verifica che il servizio funzioni senza la variabile NAME:

    PORT=8080 && docker run --rm -e PORT=$PORT -p 9000:$PORT \
     gcr.io/PROJECT_ID/hello-service

    Se il servizio non restituisce un risultato, verifica che la rimozione del codice nel primo passaggio non abbia rimosso le righe aggiuntive, come quelle utilizzate per scrivere la risposta.

  4. Per il deployment, consulta la sezione Deployment del codice.

    Ogni deployment in un servizio crea una nuova revisione e inizia automaticamente a gestire il traffico quando è pronto.

    Per cancellare le variabili di ambiente impostate in precedenza:

    gcloud run services update hello-service --clear-env-vars

Aggiungi la nuova funzionalità per il valore predefinito alla copertura dei test automatici per il servizio.

Individuazione di altri problemi nei log

Potresti visualizzare altri problemi nel visualizzatore log per questo servizio. Ad esempio, una chiamata di sistema non supportata verrà visualizzata nei log come "Limitazione di Container Sandbox".

Ad esempio, i servizi Node.js a volte generano questo messaggio di log:

Container Sandbox Limitation: Unsupported syscall statx(0xffffff9c,0x3e1ba8e86d88,0x0,0xfff,0x3e1ba8e86970,0x3e1ba8e86a90). Please, refer to https://gvisor.dev/c/linux/amd64/statx for more information.

In questo caso, la mancanza di assistenza non influisce sul servizio di esempio hello-service.

Risoluzione dei problemi di Terraform

Per la risoluzione dei problemi o per domande relative a Terraform, consulta la pagina sulla risoluzione dei problemi di convalida dei criteri Terraform o contatta l'assistenza Terraform.

Esegui la pulizia

Se hai creato un nuovo progetto per questo tutorial, elimina il progetto. Se hai utilizzato un progetto esistente e vuoi conservarlo senza le modifiche aggiunte in questo tutorial, elimina le risorse create per il tutorial.

Elimina il progetto

Il modo più semplice per eliminare la fatturazione è quello di eliminare il progetto che hai creato per il tutorial.

Per eliminare il progetto:

  1. Nella console Google Cloud, vai alla pagina Gestisci risorse.

    Vai a Gestisci risorse

  2. Nell'elenco dei progetti, seleziona il progetto che vuoi eliminare, quindi fai clic su Elimina.
  3. Nella finestra di dialogo, digita l'ID del progetto e fai clic su Chiudi per eliminare il progetto.

Eliminazione delle risorse del tutorial in corso...

  1. Elimina il servizio Cloud Run di cui hai eseguito il deployment in questo tutorial:

    gcloud run services delete SERVICE-NAME

    Dove SERVICE-NAME è il nome del servizio che hai scelto.

    I servizi Cloud Run possono essere eliminati anche dalla console Google Cloud.

  2. Rimuovi la configurazione predefinita della regione di gcloud che hai aggiunto durante la configurazione del tutorial:

     gcloud config unset run/region
    
  3. Rimuovi la configurazione del progetto:

     gcloud config unset project
    
  4. Elimina altre risorse Google Cloud create in questo tutorial:

Passaggi successivi