Configura un bilanciatore del carico delle applicazioni interno regionale con Cloud Run

Questo documento mostra come eseguire il deployment di un bilanciatore del carico delle applicazioni interno regionale con Cloud Run. Per configurarlo, utilizza un backend NEG serverless per il bilanciatore del carico.

Prima di provare questa procedura, assicurati di conoscere i seguenti argomenti:

La guida mostra come configurare un bilanciatore del carico delle applicazioni che indirizzi le richieste a un backend NEG serverless.

I NEG serverless consentono di utilizzare i servizi Cloud Run con il bilanciatore del carico. Dopo aver configurato un bilanciatore del carico con il backend NEG serverless, le richieste al bilanciatore del carico vengono instradate al backend Cloud Run.

Prima di iniziare

  1. Installa Google Cloud CLI.
  2. Eseguire il deployment di un servizio Cloud Run.
  3. Configura le autorizzazioni.

Installa Google Cloud SDK

Installa lo strumento Google Cloud CLI. Consulta la pagina Panoramica di gcloud per informazioni concettuali e di installazione dello strumento.

Se non hai già eseguito gcloud CLI, esegui prima gcloud init per inizializzare la directory gcloud.

esegui il deployment di un servizio Cloud Run

Le istruzioni in questa pagina presuppongono che tu abbia già un servizio Cloud Run in esecuzione.

Per l'esempio in questa pagina, puoi utilizzare una qualsiasi delle guide rapide di Cloud Run per eseguire il deployment di un servizio Cloud Run.

Il NEG serverless, il bilanciatore del carico e le VM client devono trovarsi nella stessa regione del servizio Cloud Run.

Per impedire l'accesso al servizio Cloud Run da internet, limita il traffico in entrata a internal. Il traffico proveniente dal bilanciatore del carico delle applicazioni interno è considerato traffico interno.

gcloud run deploy CLOUD_RUN_SERVICE_NAME \
  --platform=managed \
  --allow-unauthenticated \
  --ingress=internal \
  --region=REGION \
  --image=IMAGE_URL

Prendi nota del nome del servizio che crei. Il resto di questa pagina mostra come configurare un bilanciatore del carico che instrada le richieste a questo servizio.

Configura le autorizzazioni

Per seguire questa guida, devi creare un NEG serverless e creare un bilanciatore del carico in un progetto. Devi essere un proprietario o un editor del progetto oppure disporre dei seguenti ruoli IAM di Compute Engine:

Attività Ruolo richiesto
Crea il bilanciatore del carico e i componenti di networking Amministratore rete
Creare e modificare NEG Amministratore istanze Compute
Creare e modificare i certificati SSL Amministratore sicurezza

Configurare la rete e le subnet

Per configurare la rete e le relative subnet, devi eseguire le seguenti operazioni:

  • Creare una rete VPC e una subnet.
  • Creare una subnet solo proxy.

crea la rete VPC

Crea una rete VPC in modalità personalizzata, quindi le subnet che vuoi all'interno di una regione.

Console

  1. Nella console Google Cloud, vai alla pagina Reti VPC.

    Vai a Reti VPC

  2. Fai clic su Crea rete VPC.

  3. In Nome, inserisci lb-network.

  4. In Modalità di creazione subnet, seleziona Personalizzata.

  5. Nella sezione Nuova subnet, specifica i seguenti parametri di configurazione per una subnet:

    1. In Nome, inserisci lb-subnet.
    2. Seleziona una Regione.
    3. In Intervallo di indirizzi IP, inserisci 10.1.2.0/24.
    4. Fai clic su Fine.
  6. Fai clic su Crea.

gcloud

  1. Crea la rete VPC personalizzata utilizzando il comando gcloud compute networks create:

    gcloud compute networks create lb-network --subnet-mode=custom
    
  2. Crea una subnet nella rete lb-network. Questo esempio utilizza un intervallo di indirizzi IP di 10.1.2.0/24 per la subnet. Puoi configurare qualsiasi intervallo di subnet valido.

    gcloud compute networks subnets create lb-subnet \
    --network=lb-network \
    --range=10.1.2.0/24 \
    --region=REGION
    

Crea una subnet solo proxy

Crea una subnet solo proxy per tutti i bilanciatori del carico basati su Envoy a livello di regione in una regione specifica della rete lb-network.

Console

  1. Nella console Google Cloud, vai alla pagina Reti VPC.

    Vai a Reti VPC

  2. Fai clic sul nome della rete VPC condiviso a cui vuoi aggiungere la subnet solo proxy.

  3. Fai clic su Aggiungi subnet.

  4. Nel campo Nome, inserisci proxy-only-subnet.

  5. Seleziona una Regione.

  6. Imposta Scopo su Proxy gestito a livello di regione.

  7. Inserisci 10.129.0.0/23 come intervallo di indirizzi IP.

  8. Fai clic su Aggiungi.

gcloud

  1. Crea la subnet solo proxy utilizzando il comando gcloud compute networks subnets create.

    Questo esempio utilizza un intervallo di indirizzi IP pari a 10.129.0.0/23 per la subnet solo proxy. Puoi configurare qualsiasi intervallo di subnet valido.

    gcloud compute networks subnets create proxy-only-subnet \
     --purpose=REGIONAL_MANAGED_PROXY \
     --role=ACTIVE \
     --region=REGION \
     --network=lb-network \
     --range=10.129.0.0/23
    

Crea il bilanciatore del carico

Nel diagramma seguente, il bilanciatore del carico utilizza un backend NEG serverless per indirizzare le richieste a un servizio Cloud Run serverless.

Architettura di bilanciamento del carico HTTP(S) interno per un'applicazione Cloud Run.
Architettura di bilanciamento del carico HTTP(S) interno per un'applicazione Cloud Run.

Il traffico che passa dal bilanciatore del carico ai backend NEG serverless utilizza route speciali definite all'esterno del VPC che non sono soggette alle regole firewall. Pertanto, se il bilanciatore del carico ha solo backend NEG serverless, non è necessario creare regole firewall per consentire il traffico dalla subnet solo proxy al backend serverless.

Console

Avvia la configurazione

  1. Nella console Google Cloud, vai alla pagina Bilanciamento del carico.

    Vai a Bilanciamento del carico

  2. Fai clic su Crea bilanciatore del carico.
  3. In Tipo di bilanciatore del carico, seleziona Bilanciatore del carico delle applicazioni (HTTP/HTTPS) e fai clic su Avanti.
  4. In Pubblico o interno, seleziona Interno e fai clic su Avanti.
  5. In Deployment in più regioni o in una singola regione, seleziona Ideale per carichi di lavoro a livello di regione e fai clic su Avanti.
  6. Fai clic su Configura.

Configurazione di base

  1. Come nome del bilanciatore del carico, inserisci serverless-lb.
  2. Seleziona Rete come lb_network.
  3. Tieni la finestra aperta per continuare.

Configura il frontend

  1. Prima di procedere, assicurati di disporre di un certificato SSL.
  2. Fai clic su Configurazione frontend.
  3. Inserisci un Nome.
  4. Per configurare un bilanciatore del carico delle applicazioni interno, compila i campi come segue.
    1. In Protocollo, seleziona HTTPS.
    2. In Subnet, seleziona la subnet.
    3. In Versione IP, seleziona IPv4.
    4. In Indirizzo IP, seleziona Temporaneo.
    5. In Porta, seleziona 443.
    6. In Certificato, seleziona un certificato SSL esistente o creane uno nuovo.

      L'esempio seguente mostra come creare certificati SSL di Compute Engine:

    7. Fai clic su Crea un nuovo certificato.
      1. Nel campo Nome, inserisci un nome.
      2. Nei campi appropriati, carica i file in formato PEM:
        • Certificato
        • Chiave privata
      3. Fai clic su Crea.

    Se vuoi testare questo processo senza configurare una risorsa del certificato SSL, puoi configurare un bilanciatore del carico HTTP.

  5. (Facoltativo) Per creare un bilanciatore del carico HTTP, segui questi passaggi:
    1. In Protocollo, seleziona HTTP.
    2. In Subnet, seleziona la subnet.
    3. In Versione IP, seleziona IPv4.
    4. In Indirizzo IP, seleziona Temporaneo.
    5. In Porta, seleziona 80.
  6. Fai clic su Fine.

Configura i servizi di backend

  1. Fai clic su Configurazione backend.
  2. Nel menu a discesa Crea o seleziona servizi di backend, tieni il puntatore del mouse su Servizi di backend, quindi seleziona Crea un servizio di backend.
  3. Nella finestra Crea un servizio di backend, inserisci un Nome.
  4. In Tipo di backend, seleziona Gruppo di endpoint di rete serverless.
  5. Lascia invariato il valore Protocol. Questo parametro viene ignorato.
  6. In Backend > Nuovo backend, seleziona Crea gruppo di endpoint di rete serverless.
    1. Nella finestra Crea gruppo di endpoint di rete serverless, inserisci un nome.
    2. In Regione, viene visualizzata la regione del bilanciatore del carico.
    3. Nel campo Tipo di gruppo di endpoint di rete serverless, seleziona Cloud Run. Cloud Run è l'unico tipo supportato.
    4. Seleziona Seleziona il nome del servizio.
    5. Dall'elenco a discesa Servizio, seleziona il servizio Cloud Run per cui vuoi creare un bilanciatore del carico.
    6. Fai clic su Fine.
    7. Fai clic su Crea.
  7. Nella finestra Crea servizio di backend, fai clic su Crea.

Configura le regole di routing

Le regole di routing determinano come viene indirizzato il traffico. Puoi indirizzare il traffico a un servizio di backend o a un servizio Kubernetes. Tutto il traffico che non corrisponde esplicitamente a un matcher host e percorso viene inviato al servizio predefinito.

  1. Fai clic su Regola host e percorso semplice.
  2. Seleziona un servizio di backend dall'elenco a discesa Backend.

Rivedi la configurazione

  1. Fai clic su Esamina e finalizza.
  2. Esamina i valori per Backend, Regole host e percorso e Frontend.
  3. (Facoltativo) Fai clic su Codice equivalente per visualizzare la richiesta API REST che verrà utilizzata per creare il bilanciatore del carico.
  4. Fai clic su Crea. Attendi che la creazione del bilanciatore del carico sia completa.
  5. Fai clic sul nome del bilanciatore del carico (serverless-lb).
  6. Prendi nota dell'indirizzo IP del bilanciatore del carico, che utilizzerai nella prossima attività.

gcloud

  1. Crea un NEG serverless per il tuo servizio Cloud Run:
        gcloud compute network-endpoint-groups create SERVERLESS_NEG_NAME \
            --region=REGION \
            --network-endpoint-type=serverless  \
            --cloud-run-service=CLOUD_RUN_SERVICE_NAME
        
  2. Creare un servizio di backend a livello di regione. Imposta --protocol su HTTP. Questo parametro viene ignorato, ma è obbligatorio perché --protocol in caso contrario è TCP per impostazione predefinita.
        gcloud compute backend-services create BACKEND_SERVICE_NAME \
            --load-balancing-scheme=INTERNAL_MANAGED \
            --protocol=HTTP \
            --region=REGION
        
  3. Aggiungi il NEG serverless come backend al servizio di backend:
        gcloud compute backend-services add-backend BACKEND_SERVICE_NAME \
            --region=REGION \
            --network-endpoint-group=SERVERLESS_NEG_NAME \
            --network-endpoint-group-region=REGION
        
  4. Crea una mappa URL a livello di regione per instradare le richieste in entrata al servizio di backend:
        gcloud compute url-maps create URL_MAP_NAME \
            --default-service=BACKEND_SERVICE_NAME \
            --region=REGION
        
    Questa mappa URL di esempio ha come target solo un servizio di backend che rappresenta una singola app serverless, quindi non è necessario configurare regole host o matcher percorso.
  5. (Facoltativo) Esegui questo passaggio se utilizzi HTTPS tra il client e il bilanciatore del carico. Questo passaggio non è obbligatorio per i bilanciatori del carico HTTP.

    Puoi creare certificati Compute Engine o Gestore certificati. Utilizza uno dei seguenti metodi per creare certificati utilizzando Gestore certificati:

    • Certificati autogestiti a livello di regione. Per informazioni sulla creazione e sull'utilizzo dei certificati autogestiti a livello di regione, consulta la pagina relativa al deployment di un certificato autogestito a livello di regione. Le mappe di certificati non sono supportate.

    • Certificati gestiti a livello di regione da Google. Le mappe di certificati non sono supportate.

      Gestore certificati supporta i seguenti tipi di certificati gestiti da Google a livello di regione:

    • Dopo aver creato i certificati, collegali direttamente al proxy di destinazione.

      Per creare una risorsa del certificato SSL autogestito a livello di regione:
          gcloud compute ssl-certificates create SSL_CERTIFICATE_NAME \
              --certificate CRT_FILE_PATH \
              --private-key KEY_FILE_PATH \
              --region=REGION
          
    • Crea un proxy di destinazione a livello di regione per instradare le richieste alla mappa degli URL.

      Per un bilanciatore del carico HTTP, crea un proxy di destinazione HTTP:
          gcloud compute target-http-proxies create TARGET_HTTP_PROXY_NAME \
              --url-map=URL_MAP_NAME \
              --region=REGION
          
      Per un bilanciatore del carico HTTPS, crea un proxy di destinazione HTTPS. Il proxy è la parte del bilanciatore del carico che contiene il certificato SSL per il bilanciamento del carico HTTPS, quindi caricherai anche il certificato in questo passaggio.
          gcloud compute target-https-proxies create TARGET_HTTPS_PROXY_NAME \
              --ssl-certificates=SSL_CERTIFICATE_NAME \
              --url-map=URL_MAP_NAME \
              --region=REGION
          
    • Crea una regola di forwarding per instradare le richieste in entrata al proxy. Non utilizzare la subnet solo proxy per l'indirizzo IP della regola di forwarding. Puoi configurare qualsiasi indirizzo IP valido dalla subnet (lb-subnet).

      Per un bilanciatore del carico HTTP:
          gcloud compute forwarding-rules create HTTP_FORWARDING_RULE_NAME \
              --load-balancing-scheme=INTERNAL_MANAGED \
              --network=lb-network \
              --subnet=lb-subnet \
              --address=IP_ADDRESS \
              --target-http-proxy=TARGET_HTTP_PROXY_NAME \
              --target-http-proxy-region=REGION \
              --region=REGION \
              --ports=80
          
      Per un bilanciatore del carico HTTPS:
          gcloud compute forwarding-rules create HTTPS_FORWARDING_RULE_NAME \
              --load-balancing-scheme=INTERNAL_MANAGED \
              --network=lb-network \
              --subnet=lb-subnet \
              --address=IP_ADDRESS \
              --target-https-proxy=TARGET_HTTPS_PROXY_NAME \
              --target-https-proxy-region=REGION \
              --region=REGION \
              --ports=443
          

Testa il bilanciatore del carico

Ora che hai configurato il bilanciatore del carico, puoi iniziare a inviare traffico all'indirizzo IP del bilanciatore del carico.

Crea una VM client

In questo esempio viene creata una VM client (vm-client) nella stessa regione del bilanciatore del carico. Il client viene utilizzato per convalidare la configurazione del bilanciatore del carico e dimostrare il comportamento previsto.

gcloud

La VM client può trovarsi in qualsiasi zona nella stessa REGION del bilanciatore del carico e può utilizzare qualsiasi subnet nella stessa rete VPC.

gcloud compute instances create vm-client \
    --image-family=debian-10 \
    --image-project=debian-cloud \
    --tags=allow-ssh \
    --network=lb-network \
    --subnet=lb-subnet \
    --zone=ZONE

Configura la regola firewall

Questo esempio richiede la seguente regola firewall per la VM client di test:

fw-allow-ssh. Una regola in entrata, applicabile alla VM client di test, che consente la connettività SSH in entrata sulla porta TCP 22 da qualsiasi indirizzo. Puoi scegliere un intervallo di indirizzi IP di origine più restrittivo per questa regola; ad esempio, puoi specificare solo gli intervalli di indirizzi IP del sistema da cui avvii le sessioni SSH. In questo esempio viene utilizzato il tag di destinazione allow-ssh.

Console

  1. Nella console Google Cloud, vai alla pagina Criteri firewall.
    Vai a Criteri firewall
  2. Fai clic su Crea regola firewall per creare la regola che consenta le connessioni SSH in entrata:
    • Nome: allow-ssh
    • Rete: lb-network
    • Direzione del traffico: in entrata
    • Azione in caso di corrispondenza: Consenti
    • Destinazioni: tag di destinazione specificati
    • Tag di destinazione: allow-ssh
    • Filtro di origine: intervalli IPv4
    • Intervalli IPv4 di origine: 0.0.0.0/0
    • Protocolli e porte:
      • Scegli Protocolli e porte specificati.
      • Seleziona la casella di controllo TCP, quindi inserisci 22 per il numero di porta.
  3. Fai clic su Crea.

gcloud

  1. Crea la regola firewall fw-allow-ssh per consentire la connettività SSH alle VM con il tag di rete allow-ssh. Se ometti source-ranges, Google Cloud interpreta la regola in modo che indichi qualsiasi origine.

    gcloud compute firewall-rules create fw-allow-ssh \
        --network=lb-network \
        --action=allow \
        --direction=ingress \
        --target-tags=allow-ssh \
        --rules=tcp:22
    

Invia traffico al bilanciatore del carico

La propagazione della configurazione del bilanciatore del carico potrebbe richiedere alcuni minuti dopo il primo deployment.

  • Connettiti tramite SSH all'istanza client.

    gcloud compute ssh vm-client \
      --zone=ZONE
    
  • Verifica che il bilanciatore del carico stia gestendo la home page del servizio Cloud Run come previsto.

    Per il test HTTP, esegui:

    curl IP_ADDRESS
    

    Per i test su HTTPS, esegui:

    curl -k -s 'https://TEST_DOMAIN_URL:443' --connect-to TEST_DOMAIN_URL:443:IP_ADDRESS:443
    

    Sostituisci TEST_DOMAIN_URL con il dominio associato alla tua applicazione. Ad esempio, test.example.com.

    Il flag -k fa sì che curl ignori la convalida del certificato.

Opzioni di configurazione aggiuntive

Questa sezione espande l'esempio di configurazione per fornire opzioni di configurazione alternative e aggiuntive. Tutte le attività sono facoltative. Puoi eseguirle in qualsiasi ordine.

Utilizzo di una maschera URL

Quando crei un NEG serverless, anziché selezionare un servizio Cloud Run specifico, puoi utilizzare una maschera URL per puntare a più servizi che operano nello stesso dominio. Una maschera URL è un modello dello schema URL. Il NEG serverless utilizza questo modello per estrarre il nome del servizio dall'URL della richiesta in entrata e mappare la richiesta al servizio appropriato.

Le maschere URL sono particolarmente utili se il servizio è mappato a un dominio personalizzato anziché all'indirizzo predefinito fornito da Google Cloud per il servizio di cui è stato eseguito il deployment. Una maschera URL consente di scegliere come target più servizi e versioni con una singola regola anche quando la tua applicazione utilizza un pattern URL personalizzato.

Se non lo hai già fatto, assicurati di leggere la panoramica sui NEGS serverless: maschere URL.

Costruire una maschera URL

Per creare una maschera URL per il bilanciatore del carico, inizia con l'URL del tuo servizio. Questo esempio utilizza un'app serverless di esempio in esecuzione in https://example.com/login. Questo è l'URL in cui viene pubblicato il servizio login dell'app.

  1. Rimuovi http o https dall'URL. example.com/login è rimasto.
  2. Sostituisci il nome del servizio con un segnaposto per la maschera URL.
    • Cloud Run: sostituisci il nome del servizio Cloud Run con il segnaposto <service>. Se al servizio Cloud Run è associato un tag, sostituisci il nome del tag con il segnaposto <tag>. In questo esempio, la maschera URL che ti rimane è example.com/<service>.
  3. (Facoltativo) Se il nome del servizio può essere estratto dalla parte del percorso dell'URL, il dominio può essere omesso. La parte del percorso della maschera URL si distingue dal primo carattere barra (/). Se nella maschera URL non è presente una barra (/), la maschera rappresenta solo l'host. Pertanto, per questo esempio, la maschera URL può essere ridotta a /<service>.

    Allo stesso modo, se <service> può essere estratto dalla parte host dell'URL, puoi omettere del tutto il percorso dalla maschera dell'URL.

    Puoi anche omettere tutti i componenti host o sottodomini che precedono il primo segnaposto, nonché tutti i componenti del percorso che seguono l'ultimo segnaposto. In questi casi, il segnaposto acquisisce le informazioni richieste per il componente.

Ecco alcuni esempi che dimostrano queste regole:

Questa tabella presuppone che tu abbia un dominio personalizzato denominato example.com e che tutti i tuoi servizi Cloud Run siano stati mappati a questo dominio.

Servizio, nome tag URL del dominio personalizzato Cloud Run Maschera URL
service: login https://login-home.example.com/web <servizio>-home.example.com
service: login https://example.com/login/web example.com/<service> o /<service>
service: accesso, tag: test https://test.login.example.com/web <tag>.<servizio>.example.com
service: accesso, tag: test https://example.com/home/login/test example.com/home/<service>/<tag> o /home/<service>/<tag>
service: accesso, tag: test https://test.example.com/home/login/web <tag>.example.com/home/<servizio>

Creazione di un NEG serverless con una maschera URL

Console

Per un nuovo bilanciatore del carico, puoi utilizzare lo stesso processo end-to-end descritto in precedenza in questo documento. Quando configuri il servizio di backend, anziché selezionare un servizio specifico, inserisci una maschera URL.

Se hai già un bilanciatore del carico, puoi modificare la configurazione del backend e fare in modo che il punto NEG serverless punti a una maschera URL anziché a un servizio specifico.

Per aggiungere un NEG serverless basato su maschera URL a un servizio di backend esistente:

  1. Nella console Google Cloud, vai alla pagina Bilanciamento del carico.
    Vai a Bilanciamento del carico
  2. Fai clic sul nome del bilanciatore del carico contenente il servizio di backend che vuoi modificare.
  3. Nella pagina Dettagli del bilanciatore del carico, fai clic su Modifica.
  4. Nella pagina Modifica bilanciatore del carico delle applicazioni esterno globale, fai clic su Configurazione backend.
  5. Nella pagina Configurazione backend, fai clic su Modifica in corrispondenza del servizio di backend che vuoi modificare.
  6. Fai clic su Aggiungi backend.
  7. Seleziona Crea gruppo di endpoint di rete serverless.
    1. In Nome, inserisci helloworld-serverless-neg.
    2. In Regione, viene visualizzata la regione del bilanciatore del carico.
    3. In Tipo di gruppo di endpoint di rete serverless, Cloud Run è l'unico tipo di gruppo di endpoint di rete supportato.
      1. Seleziona Utilizza maschera URL.
      2. Inserisci una maschera per l'URL. Per informazioni su come creare una maschera URL, consulta la sezione Costruire una maschera URL.
      3. Fai clic su Crea.

  8. In Nuovo backend, fai clic su Fine.
  9. Fai clic su Update (Aggiorna).

gcloud

Per creare un NEG serverless con una maschera URL di esempio example.com/<service>:

gcloud compute network-endpoint-groups create SERVERLESS_NEG_MASK_NAME \
    --region=REGION \
    --network-endpoint-type=serverless \
    --cloud-run-url-mask="example.com/<service>"

Eliminazione di un NEG serverless

Impossibile eliminare un gruppo di endpoint di rete se è collegato a un servizio di backend. Prima di eliminare un NEG, assicurati che sia scollegato dal servizio di backend.

Console

  1. Per assicurarti che il NEG serverless che vuoi eliminare non sia utilizzato da nessun servizio di backend, vai alla scheda Servizi di backend nella pagina Componenti di bilanciamento del carico.
    Vai a Servizi di backend
  2. Se il NEG serverless è in uso, segui questi passaggi:
    1. Fai clic sul nome del servizio di backend che utilizza il NEG serverless.
    2. Fai clic su Modifica.
    3. Nell'elenco di Backend, fai clic su per rimuovere il backend NEG serverless dal servizio di backend.
    4. Fai clic su Salva.

  3. Vai alla pagina Gruppo di endpoint di rete nella console Google Cloud.
    Vai al Gruppo di endpoint di rete
  4. Seleziona la casella di controllo relativa al NEG serverless da eliminare.
  5. Fai clic su Elimina.
  6. Fai di nuovo clic su Elimina per confermare.

gcloud

Per rimuovere un NEG serverless da un servizio di backend, devi specificare la regione in cui è stato creato il NEG.

gcloud compute backend-services remove-backend BACKEND_SERVICE_NAME \
    --network-endpoint-group=SERVERLESS_NEG_NAME \
    --network-endpoint-group-region=REGION \
    --region=REGION

Per eliminare il NEG serverless:

gcloud compute network-endpoint-groups delete SERVERLESS_NEG_NAME \
    --region=REGION

Passaggi successivi