Panoramica del bilanciatore del carico di rete passthrough interno

Un bilanciatore del carico di rete passthrough interno è un bilanciatore del carico regionale basato sullo stack di virtualizzazione di rete Andromeda.

I bilanciatori del carico di rete passthrough interni distribuiscono il traffico tra le istanze di macchine virtuali (VM) interne nella stessa regione in una rete Virtual Private Cloud (VPC). Ti consente di eseguire e scalare i servizi dietro un indirizzo IP interno accessibile solo ai sistemi nella stessa rete VPC o ai sistemi collegati alla tua rete VPC.

Utilizza un bilanciatore del carico di rete passthrough interno nelle seguenti circostanze:

  • Hai bisogno di un bilanciatore del carico di livello 4 passthrough ad alte prestazioni per i protocolli TCP, UDP, ICMP, ICMPv6, SCTP, ESP, AH e GRE.
  • Se servi il traffico tramite TLS (SSL), è accettabile che il traffico SSL venga terminato dai tuoi backend anziché dal bilanciatore del carico. Il bilanciatore del carico di rete passthrough interno non può terminare il traffico SSL.
  • Devi inoltrare i pacchetti originali senza proxy. Ad esempio, se devi conservare l'indirizzo IP di origine del client.
  • Hai una configurazione esistente che utilizza un bilanciatore del carico passthrough e vuoi eseguire la migrazione senza modifiche.

I bilanciatori del carico di rete passthrough interni soddisfano molti casi d'uso. Per alcuni esempi di alto livello, consulta la Panoramica del bilanciatore del carico di rete passthrough.

Come funzionano i bilanciatori del carico di rete passthrough interni

Un bilanciatore del carico di rete passthrough interno ha un frontend (la regola di forwarding) e un backend (il servizio di backend). Puoi utilizzare gruppi di istanze o GCE_VM_IP NEG a livello di zona come backend nel servizio di backend. Questo esempio mostra i backend del gruppo di istanze.

Esempio di bilanciatore del carico di rete passthrough interno di alto livello.
Esempio di bilanciatore del carico di rete passthrough interno di alto livello (fai clic per ingrandire).

A differenza di un bilanciatore del carico proxy, un bilanciatore del carico di rete passthrough interno non termina le connessioni dai client e poi apre nuove connessioni ai backend. Un bilanciatore del carico di rete passthrough interno, invece, instrada le connessioni direttamente dai client ai backend funzionanti, senza interruzioni. Le risposte delle VM di backend funzionanti vengono inviate direttamente ai client, non tramite il bilanciatore del carico. Le risposte TCP utilizzano il ritorno diretto del server. Per ulteriori informazioni, consulta la sezione Pacchetti di richiesta e risposta TCP e UDP.

Il bilanciatore del carico monitora l'integrità del backend utilizzando i probe del controllo di integrità. Per ulteriori informazioni, consulta la sezione Controllo di integrità.

L' Google Cloud ambiente guest Linux, l'ambiente guest Windows o un processo equivalente configura ogni VM di backend con l'indirizzo IP del bilanciatore del carico. Per le VM create da Google Cloud immagini, l'agente convidado (in precedenza, l'ambiente convidado Windows o Linux) installa la route locale per l'indirizzo IP del bilanciatore del carico. Le istanze Google Kubernetes Engine basate su Container-Optimized OS implementano questa funzionalità utilizzando iptables.

La virtualizzazione della reteGoogle Cloud gestisce la pubblicazione e la scalabilità del traffico in base alle esigenze.

Protocolli, schema e ambito

Ogni bilanciatore del carico di rete passthrough interno supporta quanto segue:

  • Un servizio di backend con schema di bilanciamento del carico INTERNAL e un protocollo supportato. Per ulteriori informazioni, consulta Servizio di backend.
  • VM di backend specificate come una delle seguenti:
  • Supporto del traffico IPv4 e IPv6 quando si utilizzano i backend del gruppo di istanze. I gruppi di endpoint di rete a livello di zona (NEG) con endpoint GCE_VM_IP supportano solo il traffico IPv4.
  • Una o più regole di inoltro, ciascuna delle quali utilizza il protocollo TCP, UDP o L3_DEFAULT corrispondente al protocollo del servizio di backend.
  • Ogni regola di forwarding con il proprio indirizzo IP univoco o più regole di forwarding che condividono un indirizzo IP comune.
  • Ogni regola di forwarding con fino a cinque porte o tutte le porte.
  • Se è abilitato l'accesso globale, i client in qualsiasi regione.
  • Se l'accesso globale è disattivato, i client nella stessa regione del bilanciatore del carico.

Un bilanciatore del carico di rete passthrough interno non supporta:

Accesso client

Per impostazione predefinita, il bilanciatore del carico supporta solo i client che si trovano nella stessa regione del bilanciatore del carico. I client possono trovarsi nella stessa rete del bilanciatore del carico o in una rete VPC connessa tramite il peering di rete VPC. Puoi abilitare l'accesso globale per consentire ai client di qualsiasi regione di accedere al tuo bilanciatore del carico di rete passthrough interno.

Bilanciatore del carico di rete passthrough interno con accesso globale.
Bilanciatore del carico di rete passthrough interno con accesso globale (fai clic per ingrandire).

La tabella seguente riassume l'accesso dei client.

Accesso globale disattivato Accesso globale abilitato
I client devono trovarsi nella stessa regione del bilanciatore del carico. Inoltre, devono essere nella stessa rete VPC del bilanciatore del carico o in una rete VPC connessa alla rete VPC del bilanciatore del carico tramite il peering di rete VPC. I client possono trovarsi in qualsiasi regione. Tuttavia, devono trovarsi nella stessa rete VPC del bilanciatore del carico o in una rete VPC connessa alla rete VPC del bilanciatore del carico utilizzando il peering di rete VPC.
I client on-premise possono accedere al bilanciatore del carico tramite tunnel VPN Cloud o collegamenti VLAN. Questi tunnel o attacchi devono trovarsi nella stessa regione del bilanciatore del carico. I client on-premise possono accedere al bilanciatore del carico tramite tunnel Cloud VPN o collegamenti VLAN. Questi tunnel o allegati possono trovarsi in qualsiasi regione.

Indirizzi IP per i pacchetti di richiesta e risposta

Quando una VM di backend riceve un pacchetto con bilanciamento del carico da un client, la fonte e la destinazione del pacchetto sono:

  • Origine:l'IPv4 interno del cliente, l'IPv6 o l'indirizzo IPv4 di uno degli intervalli IPv4 dell'alias del cliente.
  • Destinazione:l'indirizzo IP della regola di forwarding del bilanciatore del carico. La regola di forwarding utilizza un singolo indirizzo IPv4 interno o un intervallo IPv6 interno.

Poiché il bilanciatore del carico è un bilanciatore del carico passthrough (non un proxy), i pacchetti arrivano con l'indirizzo IP di destinazione della regola di inoltro del bilanciatore del carico. Il software in esecuzione sulle VM di backend deve essere configurato per:

  • Ascolta (associa a) l'indirizzo IP della regola di forwarding del bilanciatore del carico o a qualsiasi indirizzo IP (0.0.0.0 o ::)
  • Se il protocollo della regola di inoltro del bilanciatore del carico supporta le porte: ascolta su (associa a) una porta inclusa nella regola di forwarding di inoltro del bilanciatore del carico

I pacchetti di ritorno vengono inviati direttamente dalle VM di backend del bilanciatore del carico al client. Gli indirizzi IP di origine e di destinazione del pacchetto di ritorno dipendono dal protocollo:

  • Il protocollo TCP è orientato alla connessione, pertanto le VM di backend devono rispondere con pacchetti i cui indirizzi IP di origine corrispondono all'indirizzo IP della regola di forwarding in modo che il client possa associare i pacchetti di risposta alla connessione TCP appropriata.
  • UDP è senza connessione, quindi le VM di backend possono inviare pacchetti di risposta cuyos indirizzi IP di origine corrispondono all'indirizzo IP della regola di forwarding o a qualsiasi indirizzo IP assegnato alla VM. In pratica, la maggior parte dei client si aspetta che la risposta provenga dallo stesso indirizzo IP a cui ha inviato i pacchetti.

La tabella seguente riassume le origini e le destinazioni per i pacchetti di risposta:

Tipo di traffico Origine Destinazione
TCP L'indirizzo IP della regola di forwarding del bilanciatore del carico L'origine del pacchetto che effettua la richiesta
UDP Per la maggior parte dei casi d'uso, l'indirizzo IP della regola di forwarding del bilanciatore del carico L'origine del pacchetto che effettua la richiesta

È possibile impostare la sorgente del pacchetto di risposta sull'indirizzo IPv4 interno principale della NIC della VM o su un intervallo di indirizzi IP alias. Se nella VM è attivato l'inoltro IP, è possibile utilizzare anche origini di indirizzi IP arbitrari. La mancata indicazione dell'indirizzo IP della regola di inoltro come origine è uno scenario avanzato perché il client riceve un pacchetto di risposta da un indirizzo IP interno che non corrisponde all'indirizzo IP a cui ha inviato un pacchetto di richiesta.

Architettura

Un bilanciatore del carico di rete passthrough interno con più backend distribuisce le connessioni tra tutti questi backend. Per informazioni sul metodo di distribuzione e sulle relative opzioni di configurazione, consulta la distribuzione del traffico.

Puoi utilizzare gruppi di istanze o NEG di zona, ma non una combinazione di entrambi, come backend per un bilanciatore del carico di rete passthrough interno:

  • Se scegli i gruppi di istanze, puoi utilizzare gruppi di istanze non gestite, gruppi di istanze gestite a livello di zona, gruppi di istanze gestite a livello di regione o una combinazione di tipi di gruppi di istanze.
  • Se scegli i NEG a livello di zona, devi utilizzare GCE_VM_IP NEG a livello di zona.

Disponibilità elevata descrive come progettare un bilanciatore del carico interno che non dipende da una singola zona.

Le istanze che partecipano come VM di backend per i bilanciatori del carico di rete passthrough interni devono eseguire l'ambiente guest Linux o Windows appropriato o altri processi che forniscono funzionalità equivalenti. Questo ambiente guest deve essere in grado di contattare il server dei metadati (metadata.google.internal, 169.254.169.254) per leggere i metadati dell'istanza in modo da poter generare route locali per accettare il traffico inviato all'indirizzo IP interno del bilanciatore del carico.

Questo diagramma illustra la distribuzione del traffico tra le VM situate in due gruppi di istanze distinti. Il traffico inviato dall'istanza client all'indirizzo IP del bilanciatore del carico (10.10.10.9) viene distribuito tra le VM di backend in entrambi i gruppi di istanze. Le risposte inviate da qualsiasi VM di backend in esecuzione vengono inviate direttamente alla VM client.

Puoi utilizzare un bilanciatore del carico di rete passthrough interno con una rete VPC in modalità personalizzata o automatica. Puoi anche creare bilanciatori del carico di rete passthrough interni con una rete precedente esistente.

Un bilanciatore del carico di rete passthrough interno non supporta:

Indirizzo IP interno

I bilanciatori del carico di rete passthrough interni supportano subnet solo IPv4, a doppio stack e solo IPv6. Per maggiori informazioni su ciascuna, consulta Tipi di sottoreti.

Un bilanciatore del carico di rete passthrough interno richiede almeno una regola di forwarding. La regola di forwarding fa riferimento all'indirizzo IP interno:

  • Per il traffico IPv4, la regola di forwarding fa riferimento a un indirizzo IPv4 dell'intervallo della subnet IPv4 principale.
  • Per il traffico IPv6, la regola di forwarding fa riferimento a un intervallo di /96 indirizzi IPv6 interni dell'intervallo di indirizzi IPv6 interno /64 della subnet. La subnet deve essere una subnet solo IPv6 a doppio stack o a stack singolo (Anteprima) con un intervallo di indirizzi IPv6 interno (ipv6-access-type impostato su INTERNAL). L'intervallo di indirizzi IPv6 può essere un indirizzo statico riservato o un indirizzo temporaneo.

    Per ulteriori informazioni sul supporto IPv6, consulta la documentazione VPC relativa agli intervalli di subnet IPv6 e agli indirizzi IPv6.

Configurazione del firewall

I bilanciatori del carico di rete passthrough interni richiedono la seguente configurazione per i criteri firewall gerarchici e le regole firewall VPC:

Per ulteriori informazioni, consulta la sezione Configurare le regole del firewall.

Regole di forwarding

Una regola di inoltro specifica il protocollo e le porte su cui il bilanciatore del carico accetta il traffico. Poiché i bilanciatori del carico di rete passthrough interni non sono proxy, trasmettono il traffico ai backend sulla stessa porta e con lo stesso protocollo.

Un bilanciatore del carico di rete passthrough interno richiede almeno una regola di forwarding interna. Puoi definire più regole di inoltro per lo stesso bilanciatore del carico.

Se vuoi che il bilanciatore del carico gestisca sia il traffico IPv4 che IPv6, crea due regole di inoltro: una per il traffico IPv4 che rimanda ai backend IPv4 (o a doppio stack) e una per il traffico IPv6 che rimanda solo ai backend a doppio stack. È possibile che una regola di inoltro IPv4 e una regola di forwarding IPv6 facciano riferimento allo stesso servizio di backend, ma il servizio di backend deve fare riferimento a backend dual-stack.

La regola di forwarding deve fare riferimento a una subnet specifica nella stessa rete VPC e nella stessa regione dei componenti di backend del bilanciatore del carico. Questo requisito ha le seguenti implicazioni:

  • La subnet specificata per la regola di inoltro non deve essere uguale a nessuna delle subnet utilizzate dalle VM di backend, ma deve trovarsi nella stessa regione della regola di inoltro.
  • Per il traffico IPv4, la regola di inoltro interno fa riferimento all'indirizzo IPv4 interno regionale dell'intervallo di indirizzi IPv4 principale della subnet selezionata. Questo indirizzo IPv4 può essere selezionato automaticamente o puoi utilizzare un indirizzo IPv4 statico (riservato).
  • Per il traffico IPv6, la regola di forwarding fa riferimento a un intervallo di /96 indirizzi IPv6 dall'intervallo di indirizzi IPv6 interno /64 della subnet. La subnet deve essere una subnet a doppio stack con ipv6-access-type impostato su INTERNAL. L'intervallo di indirizzi IPv6 /96 viene assegnato automaticamente o puoi utilizzare un indirizzo IP interno riservato.

Protocolli delle regole di forwarding

I bilanciatori del carico di rete passthrough interni supportano le seguenti opzioni di protocollo IPv4 per ogni regola di forwarding: TCP, UDP o L3_DEFAULT.

I bilanciatori del carico di rete passthrough interni supportano le seguenti opzioni di protocollo IPv6 per ogni regola di forwarding: TCP o UDP.

L'opzione L3_DEFAULT ti consente di bilanciare il carico dei protocolli TCP, UDP, ICMP, ICMPv6, SCTP, ESP, AH e GRE.

Oltre a supportare protocolli diversi da TCP e UDP, l'opzione L3_DEFAULT consente a una singola regola di forwarding di inoltrare contemporaneamente il traffico per più protocolli. Ad esempio, oltre a inviare richieste HTTP, puoi anche eseguire un ping all'indirizzo IP del bilanciatore del carico.

Le regole di inoltro che utilizzano i protocolli TCP o UDP possono fare riferimento a un servizio di backend utilizzando lo stesso protocollo della regola di forwarding o un servizio di backend che utilizza il protocollo UNSPECIFIED.

Se utilizzi il protocollo L3_DEFAULT, devi configurare la regola di inoltro in modo che accetti il traffico su tutte le porte. Per configurare tutte le porte, imposta --ports=ALL utilizzando Google Cloud CLI oppure imposta allPorts su True utilizzando l'API.

La seguente tabella riassume come utilizzare queste impostazioni per diversi protocolli:

Traffico da bilanciare Protocollo della regola di forwarding Protocollo del servizio di backend
TCP (IPv4 o IPv6) TCP TCP or UNSPECIFIED
UDP (IPv4 o IPv6) UDP UDP or UNSPECIFIED
TCP, UDP, ICMP, ICMPv6, SCTP, ESP, AH e GRE L3_DEFAULT UNSPECIFIED

Regole di forwarding e accesso globale

Le regole di inoltro di un bilanciatore del carico di rete passthrough interno sono a livello di regione, anche se è abilitato l'accesso globale. Dopo aver attivato l'accesso globale, il flag allowGlobalAccess della regola di inoltro interno a livello di regione viene impostato su true.

Regole di inoltro e specifiche delle porte

Quando crei una regola di forwarding interno, devi scegliere una delle seguenti specifiche di porta:

  • Specifica almeno una e fino a cinque porte, in base al numero.
  • Specifica ALL per inoltrare il traffico su tutte le porte.

Una regola di forwarding interna che supporta tutte le porte TCP o tutte le porte UDP consente alle VM di backend di eseguire più applicazioni, ciascuna sulla propria porta. Il traffico inviato a una determinata porta viene inviato all'applicazione corrispondente e tutte le applicazioni utilizzano lo stesso indirizzo IP.

Quando devi inoltrare il traffico su più di cinque porte specifiche, combina le regole del firewall con le regole di inoltro. Quando crei la regola di forwarding, specifica tutte le porte e poi crea regole firewall allow in entrata che consentano il traffico solo alle porte desiderate. Applica le regole firewall alle VM di backend.

Non puoi modificare una regola di forwarding dopo averla creata. Se devi modificare le porte specificate o l'indirizzo IP interno per una regola di forwarding interno, devi eliminarla e ricrearla.

Più regole di inoltro per un singolo servizio di backend

Puoi configurare più regole di forwarding interno che fanno tutte riferimento allo stesso servizio di backend interno. Un bilanciatore del carico di rete passthrough interno richiede almeno una regola di forwarding interna.

La configurazione di più regole di inoltro per lo stesso servizio di backend ti consente di svolgere le seguenti operazioni:

  • Assegna più indirizzi IP al bilanciatore del carico. Puoi creare più regole di inoltro, ciascuna con un indirizzo IP univoco. Ogni regola di forwarding può specificare tutte le porte o un insieme di massimo cinque porte.

  • Assegna un insieme specifico di porte, che utilizzano lo stesso indirizzo IP, al bilanciatore del carico. Puoi creare più regole di inoltro che condividono lo stesso indirizzo IP, in cui ogni regola di forwarding utilizza un insieme specifico di massimo cinque porte. Si tratta di un'alternativa alla configurazione di una singola regola di inoltro che specifica tutte le porte.

Per ulteriori informazioni sugli scenari che coinvolgono due o più regole di forwarding interno che condividono un indirizzo IP interno comune, consulta Più regole di forwarding con lo stesso indirizzo IP.

Quando utilizzi più regole di inoltro interne, assicurati di configurare il software in esecuzione sulle VM di backend in modo che si leghi a tutti gli indirizzi IP delle regole di inoltro o a qualsiasi indirizzo (0.0.0.0/0 per IPv4 o ::/0 per IPv6). L'indirizzo IP di destinazione di un pacchetto inviato tramite il bilanciatore del carico è l'indirizzo IP interno associato alla regola di forwarding interna corrispondente. Per ulteriori informazioni, consulta la sezione Pacchetti di richiesta e risposta TCP e UDP.

Servizio di backend

Ogni bilanciatore del carico di rete passthrough interno ha un servizio di backend interno regionale che definisce i parametri e il comportamento del backend. Il nome del servizio di backend è il nome del bilanciatore del carico di rete passthrough interno visualizzato nella console Google Cloud.

Ogni servizio di backend definisce i seguenti parametri di backend:

  • Protocollo. Un servizio di backend supporta il traffico IPv4 e IPv6. Se il protocollo prevede il concetto di porta (ad esempio TCP o UDP), il servizio di backend invia i pacchetti alle VM di backend sulla stessa porta di destinazione a cui è stato inviato il traffico.

    I servizi di backend supportano le seguenti opzioni di protocollo IPv4: TCP, UDP o UNSPECIFIED.

    I servizi di backend supportano le seguenti opzioni di protocollo IPv6: TCP o UDP. Il protocollo del servizio di backend deve essere coordinato con il protocollo della regola di forwarding.

    Per una tabella con le possibili combinazioni di regole di inoltro e protocolli di servizio di backend, consulta la specifica del protocollo della regola di inoltro.

  • Distribuzione del traffico. Un servizio di backend consente di distribuire il traffico in base a un'affinità sessione configurabile.

  • Controllo di integrità. A un servizio di backend deve essere associato un controllo di integrità.

Ogni servizio di backend opera in un'unica regione e distribuisce il traffico per le VM di backend in un'unica rete VPC:

Backend dei gruppi di istanze e interfacce di rete

La rete VPC associata a un gruppo di istanze è la rete VPC utilizzata dall'interfaccia di rete nic0 di ogni VM membro.

  • Per i gruppi di istanze gestite (MIG), la rete VPC per il gruppo di istanze è definita nel modello di istanza.
  • Per i gruppi di istanze non gestite, la rete VPC per il gruppo di istanze è definita come la rete VPC utilizzata dall'interfaccia di rete nic0 della prima istanza VM aggiunta al gruppo di istanze non gestite.

All'interno di un determinato gruppo di istanze (gestite o non gestite), tutte le istanze VM devono avere le interfacce di rete nic0 nella stessa rete VPC. Ogni VM membro può avere facoltativamente interfacce di rete aggiuntive (nic1 tramite nic7), ma ogni interfaccia di rete deve essere collegata a una rete VPC diversa. Inoltre, queste reti devono essere diverse dalla rete VPC associata al gruppo di istanze.

Backend di NEG a livello di zona e interfacce di rete

Quando crei un nuovo NEG zonale con endpoint GCE_VM_IP, devi associare esplicitamente il NEG a una sottorete di una rete VPC prima di poter aggiungere endpoint al NEG. Né la subnet né la rete VPC possono essere modificate dopo la creazione del NEG.

All'interno di un determinato NEG, ogni endpoint GCE_VM_IP rappresenta in realtà un'interfaccia di rete. L'interfaccia di rete deve trovarsi nella subnet associata al NEG. Dal punto di vista di un'istanza Compute Engine, l'interfaccia di rete può utilizzare qualsiasi identificatore (da nic0 a nic7). Dal punto di vista di un endpoint in un NEG, l'interfaccia di rete viene identificata utilizzando il suo indirizzo IPv4 principale.

Esistono due modi per aggiungere un endpoint GCE_VM_IP a un NEG:

  • Se specifichi solo il nome di una VM (senza indirizzo IP) quando aggiungi un endpoint, Google Cloud è necessario che la VM abbia un'interfaccia di rete nella subnet associata al NEG. L'indirizzo IP scelto Google Cloud per l'endpoint è l'indirizzo IPv4 interno principale dell'interfaccia di rete della VM nella subnet associata al NEG.
  • Se specifichi sia il nome di una VM sia un indirizzo IP quando aggiungi un endpoint, l'indirizzo IP fornito deve essere un indirizzo IPv4 interno principale per una delle interfacce di rete della VM. L'interfaccia di rete deve trovarsi nella sottorete associata al NEG. Tieni presente che la specifica di un indirizzo IP è ridondante perché nella subnet associata al gruppo di esclusioni è presente una sola interfaccia di rete.

Specifica della rete del servizio di backend

Puoi associare esplicitamente una rete VPC a un servizio di backend utilizzando il flag --network quando crei il servizio di backend. Le regole di rete del servizio di backend entrano in vigore immediatamente.

Se ometti il flag --network quando crei un servizio di backend, Google Cloud utilizza uno dei seguenti eventi idonei per impostare implicitamente la rete VPC associata al servizio di backend. Una volta impostata, la rete VPC associata al servizio di backend non può essere modificata:

  • Se il servizio di backend non ha ancora backend associati e configuri la prima regola di inoltro in modo che faccia riferimento al servizio di backend,Google Cloud imposta la rete VPC associata al servizio di backend sulla rete VPC contenente la subnet utilizzata da questa regola di inoltro.

  • Se il servizio di backend non ha ancora una regola di inoltro che lo rimandi, e aggiungi il primo backend del gruppo di istanze al servizio di backend, Google Cloud imposta la rete VPC del servizio di backend sulla rete VPC associata al primo backend del gruppo di istanze. Ciò significa che la rete VPC associata al servizio di backend è la rete utilizzata dall'interfaccia di rete nic0 di ogni VM nel backend del primo gruppo di istanze.

  • Se il servizio di backend non ha ancora una regola di inoltro che lo rimandi, e aggiungi il primo backend NEG zonale (con endpoint GCE_VM_IP) al servizio di backend, Google Cloud imposta la rete VPC del servizio di backend su la rete VPC associata al primo backend NEG.

Dopo che la rete VPC del servizio di backend è stata impostata da un evento idoneo, eventuali regole di inoltro, gruppi di istanza di backend o NEG zonali di backend aggiuntivi che aggiungi devono rispettare le regole di rete del servizio di backend.

Regole di rete del servizio di backend

Dopo che un servizio di backend è stato associato a una rete VPC specifica, si applicano le seguenti regole:

  • Quando configuri una regola di forwarding per fare riferimento al servizio di backend, la regola di forwarding deve utilizzare una sottorete della rete VPC del servizio di backend. La regola di forwarding e il servizio di backend non possono utilizzare reti VPC diverse, anche se sono connesse (ad esempio, utilizzando il peering di rete VPC).

  • Quando aggiungi i backend del gruppo di istanze, uno dei seguenti requisiti deve essere soddisfatto:

    • La rete VPC associata al gruppo di istanze, ovvero la rete VPC utilizzata dall'interfaccia di rete nic0 di ogni VM nel gruppo di istanze, deve corrispondere alla rete VPC associata del servizio di backend.
    • Ogni VM di backend deve avere un'interfaccia non nic0 (da nic1 a nic7) nella rete VPC associata al servizio di backend.
  • Quando aggiungi backend NEG zonali con endpoint GCE_VM_IP, la rete VPC associata al NEG deve corrispondere alla rete VPC associata al servizio di backend.

Back-end a doppio stack (IPv4 e IPv6)

Se vuoi che il bilanciatore del carico utilizzi backend a doppio stack che gestiscono sia il traffico IPv4 sia quello IPv6, tieni presente i seguenti requisiti:

  • I backend devono essere configurati in subnet dual-stack che si trovano nella stessa regione della regola di inoltro IPv6 del bilanciatore del carico. Per i backend, puoi utilizzare una sottorete con ipv6-access-type impostato su INTERNAL o EXTERNAL. Se ipv6-access-type della subnet di backend è impostato su EXTERNAL, devi utilizzare una subnet a doppio stack o solo IPv6 diversa con ipv6-access-type impostato su INTERNAL per la regola di forwarding interna del bilanciatore del carico. Per ulteriori informazioni, consulta Aggiungere una sottorete dual-stack.
  • I backend devono essere configurati come dual-stack con stack-type impostato su IPv4_IPv6. Se ipv6-access-type della sottorete di backend è impostato su EXTERNAL, devi impostare anche --ipv6-network-tier su PREMIUM. Per ulteriori informazioni, consulta Creare un modello di istanza con indirizzi IPv6.

Back-end solo IPv6

Se vuoi che il bilanciatore del carico utilizzi backend solo IPv6, tieni presente i seguenti requisiti:

  • Le istanze solo IPv6 sono supportate solo nei gruppi di istanze non gestiti. Non è supportato nessun altro tipo di backend.
  • I backend devono essere configurati in subnet a doppio stack o solo IPv6 che si trovano nella stessa regione della regola di inoltro IPv6 del regola di forwarding del carico. Per i backend, puoi utilizzare una sottorete con ipv6-access-type impostato su INTERNAL o EXTERNAL. Se ipv6-access-type della subnet di backend è impostato su EXTERNAL, devi utilizzare una subnet solo IPv6 diversa con ipv6-access-type impostato su INTERNAL per la regola di inoltro interna del bilanciatore del carico.
  • I backend devono essere configurati come solo IPv6 con la VM stack-type impostata su IPv6_ONLY. Se ipv6-access-type della sottorete di backend è impostato su EXTERNAL, devi impostare anche --ipv6-network-tier su PREMIUM. Per ulteriori informazioni, consulta Creare un modello di istanza con indirizzi IPv6.

Tieni presente che le VM solo IPv6 possono essere create sia in subnet a doppio stack sia in subnet solo IPv6, ma le VM a doppio stack non possono essere create in subnet solo IPv6.

Sottoinsieme di backend

La sottoimpostazione del backend è una funzionalità facoltativa che migliora il rendimento limitando il numero di backend a cui viene distribuito il traffico.

Devi attivare i sottoinsiemi solo se devi supportare più di 250 VM di backend su un singolo bilanciatore del carico. Per ulteriori informazioni, consulta Impostazione secondaria del backend per il bilanciatore del carico di rete passthrough interno.

Controllo di integrità

Il servizio di backend del bilanciatore del carico deve essere associato a un controllo di integrità globale o regionale. Le route speciali esterne alla rete VPC facilitano la comunicazione tra i sistemi di controllo di integrità e i backend.

Puoi utilizzare un controllo di integrità esistente o definirne uno nuovo. I bilanciatori del carico di rete passthrough interni utilizzano lo stato del controllo di integrità per determinare come instradare le nuove connessioni, come descritto in Distribuzione del traffico.

Puoi utilizzare uno dei seguenti protocolli di controllo di integrità. Il protocollo del controllo di integrità non deve corrispondere a quello del bilanciatore del carico:

  • HTTP, HTTPS o HTTP/2. Se le VM di backend pubblicano il traffico utilizzando HTTP, HTTPS o HTTP/2, è meglio utilizzare un controllo di integrità corrispondente a questo protocollo, perché i controlli di integrità basati su HTTP offrono opzioni appropriate per questo protocollo. Se servi il traffico di tipo HTTP tramite un bilanciatore del carico di rete passthrough interno, il protocollo del bilanciatore del carico è TCP.
  • SSL o TCP. Se le VM di backend non servono traffico di tipo HTTP, devi utilizzare un controllo di integrità SSL o TCP.

Indipendentemente dal tipo di controllo di integrità che crei, Google Cloud invia probe del controllo di integrità all'indirizzo IP della regola di inoltro del bilanciatore del carico di rete passthrough interno, all'interfaccia di rete nella rete VPC selezionata dal servizio di backend del bilanciatore del carico. In questo modo viene simulato il modo in cui viene fornito il traffico bilanciato in base al carico. Il software in esecuzione sulle VM di backend deve rispondere sia al traffico bilanciato in base al carico sia ai controlli di integrità inviati all'indirizzo IP di ogni regola di inoltro (il software deve ascoltare su 0.0.0.0:<port> e non su un indirizzo IP specifico assegnato a un'interfaccia di rete). Per ulteriori informazioni, consulta Destinazione per i pacchetti di prova.

Controlli di integrità e traffico UDP

Google Cloud non offre un controllo di integrità che utilizzi il protocollo UDP. Quando utilizzi un bilanciatore del carico di rete passthrough interno con traffico UDP, devi eseguire un servizio basato su TCP sulle VM di backend per fornire informazioni sul controllo di integrità.

In questa configurazione, le richieste dei client vengono bilanciate in base al carico utilizzando il protocollo UDP e un servizio TCP viene utilizzato per fornire informazioni ai Google Cloud strumenti di controllo dello stato. Ad esempio, puoi eseguire un semplice server HTTP su ogni VM di backend che restituisce una risposta HTTP 200 a Google Cloud. In questo esempio, devi utilizzare la tua logica in esecuzione sulla VM di backend per assicurarti che il server HTTP restituisca 200 solo se il servizio UDP è configurato e in esecuzione correttamente.

Architettura ad alta disponibilità

Il bilanciatore del carico di rete passthrough interno è altamente disponibile per progettazione. Non sono previsti passaggi speciali per rendere il bilanciatore del carico altamente disponibile perché il meccanismo non si basa su un singolo dispositivo o istanza VM.

Per assicurarti che le istanze VM di backend vengano di cui il deployment è stato eseguito in più zone, segui questi consigli per il deployment:

  • Utilizza i gruppi di istanze gestite a livello di regione se puoi eseguire il deployment del software utilizzando i modelli di istanza. I gruppi di istanze gestite a livello di regione distribuiscono automaticamente il traffico tra più zone, offrendo la soluzione migliore per evitare potenziali problemi in una determinata zona.

  • Se utilizzi gruppi di istanze gestite a livello di zona o gruppi di istanze non gestite, utilizza più gruppi di istanze in zone diverse (nella stessa regione) per lo stesso servizio di backend. L'utilizzo di più zone protegge da potenziali problemi in una determinata zona.

Architettura VPC condiviso

La tabella seguente riassume i requisiti dei componenti per i bilanciatori del carico di rete passthrough interni utilizzati con le reti VPC condiviso. Per un esempio, consulta la sezione sulla creazione di un bilanciatore del carico di rete passthrough interno nella pagina di provisioning della rete VPC condivisa.

Indirizzo IP Regola di forwarding Componenti di backend
Deve essere definito un indirizzo IP interno nello stesso progetto delle VM di backend.

Affinché il bilanciatore del carico sia disponibile in una rete VPC condivisa, l' Google Cloud indirizzo IP interno deve essere definito nello stesso progetto di servizio in cui si trovano le VM di backend e deve fare riferimento a una sottorete nella rete VPC condivisa desiderata nel progetto host. L'indirizzo stesso proviene dall'intervallo IP principale della subnet a cui si fa riferimento.

Se crei un indirizzo IP interno in un progetto di servizio e la subnet dell'indirizzo IP si trova nella rete VPC del progetto di servizio, il bilanciatore del carico di rete passthrough interno è locale per il progetto di servizio. Non è locale per nessun progetto host VPC condiviso.
Deve essere definita una regola di forwarding interna nello stesso progetto delle VM di backend.

Affinché il bilanciatore del carico sia disponibile in una rete VPC condiviso, la regola di forwarding interna deve essere definita nello stesso progetto di servizio in cui si trovano le VM di backend e deve fare riferimento alla stessa subnet (nella rete VPC condiviso) a cui fa riferimento l'indirizzo IP interno associato.

Se crei una regola di forwarding interno in un progetto di servizio e la subnet della regola di forwarding si trova nella rete VPC del progetto di servizio, il bilanciatore del carico di rete passthrough interno è locale per il progetto di servizio. Non è locale per nessun progetto host VPC condiviso.
In uno scenario VPC condiviso, le VM di backend si trovano in un progetto di servizio. In questo progetto di servizio devono essere definiti un servizio di backend interno regionale e un controllo di integrità.

Distribuzione del traffico

I bilanciatori del carico di rete passthrough interni supportano una serie di opzioni di personalizzazione della distribuzione del traffico, tra cui affinità sessione, monitoraggio delle connessioni e failover. Per dettagli su come i bilanciatori del carico di rete passthrough interni distribuiscono il traffico e su come queste opzioni interagiscono tra loro, consulta Distribuzione del traffico per i bilanciatori del carico di rete passthrough interni.

Quote e limiti

Per informazioni su quote e limiti, consulta Quote delle risorse di bilanciamento del carico.

Limitazioni

  • Non puoi utilizzare la console Google Cloud per creare un bilanciatore del carico di rete passthrough interno con backend NEG zonali.

Passaggi successivi