Failover per i bilanciatori del carico di rete passthrough interni

Puoi configurare un bilanciatore del carico di rete passthrough interno per distribuire le connessioni tra VM di Compute Engine nei backend primari e, se necessario, di passare alle istanze utilizzando backend di failover. Il failover fornisce un metodo per aumentare la disponibilità, offrendo al contempo un maggiore controllo su come gestire il carico di lavoro quando le VM di backend principali non sono in stato di esecuzione.

In questa pagina vengono descritti concetti e requisiti specifici del failover per bilanciatori del carico di rete passthrough interni. Assicurati di conoscere bene i concetti informazioni nei seguenti articoli prima di configurare il failover per bilanciatori del carico di rete passthrough interni:

È importante comprendere questi concetti perché la configurazione del failover modifica l'algoritmo di distribuzione del traffico standard del bilanciatore del carico di rete passthrough interno.

Per impostazione predefinita, quando aggiungi un backend al backend di un bilanciatore del carico di rete passthrough interno , il backend è un backend principale. Puoi designare un backend come backend di failover quando lo aggiungi al servizio di backend del bilanciatore del carico o modificandolo in un secondo momento. I backend di failover ricevono connessioni dal bilanciatore del carico solo dopo che una percentuale configurabile di VM principali non supera i controlli di integrità.

Gruppi di istanze supportati

I gruppi di istanze gestite e non gestite sono supportati come backend. Per semplicità, gli esempi in questa pagina mostrano gruppi di istanze non gestite.

L'uso dei gruppi di istanze gestite con scalabilità automatica e failover potrebbe causare pool attivo per failover e failover ripetuti tra il backend principale e quello di failover. Google Cloud non ti impedisce di configurare il failover con i gruppi di istanze gestite perché il tuo deployment potrebbe trarre vantaggio da questa configurazione.

Architettura

Il seguente semplice esempio mostra un bilanciatore del carico di rete passthrough interno con un backend principale e un backend di failover.

  • Il backend principale è un gruppo di istanze non gestite in us-west1-a.
  • Il backend di failover è un diverso gruppo di istanze non gestite in us-west1-c.
Esempio di failover per i bilanciatori del carico di rete passthrough interni.
Esempio di failover per i bilanciatori del carico di rete passthrough interni (fai clic per ingrandire).

L'esempio seguente mostra un bilanciatore del carico di rete passthrough interno con due backend principali e due backend di failover, entrambi distribuiti tra due zone nella regione us-west1. Questa configurazione aumenta l'affidabilità perché dipendono da una singola zona per tutti i backend primari o per tutti i backend di failover.

  • I backend principali sono i gruppi di istanze non gestite ig-a e ig-d.
  • I backend di failover sono gruppi di istanze non gestite ig-b e ig-c.
Failover del bilanciatore del carico di rete passthrough interno multizona.
Failover del bilanciatore del carico di rete passthrough interno multizona (fai clic per ingrandire).

Durante il failover, entrambi i backend principali diventano inattivi, mentre le VM integre in entrambi i backend di failover diventano attive. Per una spiegazione completa di come il failover vedi l'esempio di failover.

Gruppi di istanze e VM di backend

I gruppi di istanze non gestite nei bilanciatori del carico di rete passthrough interni sono o di failover primari. Puoi designare un backend come backend di failover al momento dell'aggiunta al servizio di backend o modificando il backend dopo averlo aggiunto. In caso contrario, i gruppi di istanze non gestite sono primari per impostazione predefinita.

Puoi configurare più backend principali e più backend di failover in un singolo bilanciatore del carico di rete passthrough interno aggiungendoli al servizio di backend del bilanciatore del carico.

Una VM principale è un membro di un gruppo di istanze che hai definito come un il backend principale. Le VM in un backend principale partecipano pool attivo (descritto nella sezione successiva), a meno che il bilanciatore del carico non cambi all'uso dei suoi backend di failover.

Una VM di backup è un membro di un gruppo di istanze che hai definito come un di failover. Le VM in un backend di failover partecipano al pool attivo del bilanciatore del carico quando le VM principali non sono più integre. Il numero di per VM non integre che attivano il failover è una percentuale configurabile.

Limiti

  • VM. Puoi avere fino a 250 VM nel pool attivo. In altre parole, i gruppi di istanza di backend principali possono avere un totale di 250 VM principali e i gruppi di istanza di backend di failover possono avere un totale fino a 250 VM di backup.

  • Gruppi di istanze non gestite. Puoi avere fino a 50 gruppi di istanze di backend principali e fino a 50 gruppi di istanze di backend di failover.

Ad esempio, un deployment massimo potrebbe avere 5 backend principali e 5 backend di failover, con ogni gruppo di istanze contenente 50 VM.

Pool attivo

Il pool attivo è la raccolta di VM di backend a cui il bilanciatore del carico di rete passthrough interno invia nuove connessioni. Appartenenza delle VM di backend nel viene calcolato automaticamente in base ai backend in stato integro e che puoi specificare, come descritto in Rapporto di failover.

Il pool attivo non combina mai VM principali e VM di backup. I seguenti esempi chiariscono le possibilità di adesione. Durante il failover, il pool attivo contiene solo VM di backup. Durante il normale funzionamento (failback), il pool attivo contiene solo VM principali.

Pool attivo in caso di failover e di failover.
Pool attivo in caso di failover e failover (fai clic per ingrandire).

Failover e failback

Failover e failback sono i processi automatici che cambiano le VM di backend dentro o fuori dal pool attivo del bilanciatore del carico. Quando Google Cloud rimuove VM primarie del pool attivo e aggiunge VM di failover integre alle VM un pool, il processo è chiamato failover. Quando Google Cloud esegue l'operazione inversa, il processo è noto come failback.

Criterio di failover

Un criterio di failover è una raccolta di parametri che Google Cloud per il failover e il failover. Ogni bilanciatore del carico di rete passthrough interno ha un criterio di failover con più impostazioni:

  • Rapporto di failover
  • Eliminazione del traffico quando tutte le VM di backend sono in stato non integro
  • Svuotamento connessioni in caso di failover e failover

Rapporto di failover

Un rapporto di failover configurabile determina quando Google Cloud esegue un failover o un failover, modificando nel pool attivo. Il rapporto può essere compreso tra 0.0 e 1.0, inclusi. Se non specifichi un rapporto di failover, Google Cloud utilizza un valore predefinito di 0.0. Una best practice prevede di impostare il rapporto di failover su un valore accettabile per il tuo caso d'uso anziché fare affidamento su questa impostazione predefinita.

Condizioni VM nel pool attivo
  1. Il rapporto di failover (x) != 0.0.
    Il rapporto di VM primarie integre >= x.
  2. Il rapporto di failover (x) = 0.0.
    Il numero di VM primarie integre > 0.
Tutte le VM principali in buono stato
Se almeno una VM di backup è integra e:
  1. Il rapporto di failover (x) != 0.0.
    Il rapporto tra VM principali integre < x.
  2. Il rapporto di failover = 0.0.
    Il numero di VM primarie integre = 0.
Tutte le VM di backup integre
Quando tutte le VM principali e tutte le VM di backup non sono integre e non hai configurato il bilanciatore del carico in modo da eliminare il traffico in questa situazione Tutte le VM principali, come ultima risorsa

I seguenti esempi chiariscono l'appartenenza al pool attivo. Ad esempio, con i calcoli, vedi l'esempio di failover.

  • Un rapporto di failover pari a 1.0 richiede che tutte le VM principali siano integre. Quando almeno una VM principale non è più integra, Google Cloud esegue un failover spostando le VM di backup nel pool attivo.
  • Un rapporto di failover pari a 0.1 richiede che almeno il 10% delle VM principali sia integra; in caso contrario, Google Cloud esegue un failover.
  • Un rapporto di failover pari a 0.0 indica che Google Cloud esegue un failover solo quando tutte le VM principali non sono integre. Il failover non avviene se almeno una VM principale è integra.

Un bilanciatore del carico di rete passthrough interno distribuisce le connessioni tra le VM nel pool attivo in base all'algoritmo di distribuzione del traffico.

Eliminazione del traffico quando tutte le VM di backend non sono integre

Per impostazione predefinita, quando tutte le VM principali e di backup sono in stato non integro, Google Cloud distribuisce le nuove connessioni solo tra le VM principali. Lo fa come ultima risorsa. Le VM di backup sono escluse da questa distribuzione dell'ultima istanza di e connessioni a Internet.

Se preferisci, puoi configurare il bilanciatore del carico di rete passthrough interno in modo da eliminare le nuove connessioni quando tutte le VM principali e di backup non sono operative.

Svuotamento delle connessioni al failover e al failback

Lo svuotamento delle connessioni consente alle sessioni TCP esistenti di rimanere attive per un periodo di tempo configurabile anche dopo che le VM di backend non sono più in stato integro. Se il protocollo per il bilanciatore del carico è TCP, quanto segue:

  • Per impostazione predefinita, lo svuotamento della connessione è abilitato. Le sessioni TCP esistenti possono essere persistenti su una VM di backend per un massimo di 300 secondi (5 minuti), anche se la VM non è integro o non fa parte del pool attivo del bilanciatore del carico.

  • Puoi disattivare lo svuotamento delle connessioni durante gli eventi di failover e failback. La disattivazione dello svuotamento della connessione durante il failover e il failback garantisce che tutte le sessioni TCP, incluse quelle stabilite, vengano terminate rapidamente. Connessioni alle VM di backend potrebbe essere chiuso con un pacchetto di reimpostazione TCP.

La disattivazione dello svuotamento delle connessioni al failover e al failback è utile per scenari come i seguenti:

  • Patch delle VM di backend. Prima di applicare i patch, configura le VM principali in modo che non superino i controlli di integrità in modo che il bilanciatore del carico esegua un failover. La disabilitazione dello svuotamento della connessione assicura che tutte le connessioni vengano spostate esegui il backup delle VM in modo rapido e pianificato. In questo modo puoi installare gli aggiornamenti e riavviare le VM principali senza che le connessioni esistenti vengano mantenute. Dopo l'applicazione delle patch, Google Cloud può eseguire un failover quando è Numero di VM primarie (come definito dal rapporto di failover) che superano l'integrità controlli.

  • VM di backend singola per la coerenza dei dati. Se devi assicurarti che solo una VM primaria sia la destinazione di tutte le connessioni, disattiva il ritiro delle connessioni in modo che il passaggio da una VM principale a una VM di backup non consenta alle connessioni esistenti di persistere su entrambe. Questo riduce la possibilità che mantenendo attiva una sola VM di backend in un determinato momento.

Esempio di failover

L'esempio seguente descrive il comportamento di failover per l'esempio di bilanciatore del carico di rete passthrough interno multizona presentato nella sezione Architettura.

Failover del bilanciatore del carico di rete passthrough interno multizona.
Failover del bilanciatore del carico di rete passthrough interno multizona (fai clic per ingrandire).

I backend primari per questo bilanciatore del carico sono i gruppi di istanze non gestite ig-a a us-west1-a e ig-d a us-west1-c. Ogni gruppo di istanze contiene due VM. Tutte e quattro le VM di entrambi i gruppi di istanze sono VM primarie:

  • vm-a1 in ig-a
  • vm-a2 in ig-a
  • vm-d1 in ig-d
  • vm-d2 in ig-d

I backend di failover per questo bilanciatore del carico sono i gruppi di istanze non gestite ig-b a us-west1-a e ig-c a us-west1-c. Ogni gruppo di istanze contiene due VM. Tutte e quattro le VM di entrambi i gruppi di istanze sono VM di backup:

  • vm-b1 in ig-b
  • vm-b2 in ig-b
  • vm-c1 in ig-c
  • vm-c2 in ig-c

Supponiamo di voler configurare un criterio di failover per questo bilanciatore del carico in modo che le nuove connessioni vengono consegnate alle VM di backup quando il numero di istanze primarie integre è inferiore a due. A questo scopo, imposta il rapporto di failover su 0.5 (50%). Google Cloud usa il rapporto di failover per calcolare il numero minimo numero di VM primarie che devono essere in stato integro moltiplicando il rapporto di failover per il numero di VM principali: 4 × 0.5 = 2

Se tutte e quattro le VM principali sono in stato integro, Google Cloud distribuisce nuovi a ciascuno di essi. Quando le VM principali non superano i controlli di integrità:

  • Se vm-a1 e vm-d1 non sono integri, Google Cloud distribuisce nuovi delle connessioni tra le restanti due VM principali integre, vm-a2 e vm-d2, perché il numero di VM primarie integre è almeno il minimo.

  • Se anche vm-a2 non supera i controlli di integrità, rimane solo una VM principale integra,vm-d2 Google Cloud riconosce che il numero di VM principali integrate è inferiore al minimo, quindi esegue un failover. Il pool attivo è impostato alle quattro VM di backup integre e le nuove connessioni sono distribuite tra queste quattro (nei gruppi di istanze ig-b e ig-c). Anche se vm-d2 rimane integro, viene rimosso dal pool attivo e non riceve nuove connessioni.

  • Se vm-a2 si riprende e supera il controllo di integrità, Google Cloud riconosce che il numero di VM principali integre è almeno pari al numero minimo di due, quindi esegue un failback. Il pool attivo è impostato sulle due VM principali integre, vm-a2 e vm-d2, e le nuove connessioni vengono distribuite tra di esse. Tutte le VM di backup vengono rimosse dal pool attivo.

  • Quando le altre VM principali si riprendono e superano i controlli di integrità, Google Cloud le aggiunge al pool attivo. Ad esempio, se vm-a1 diventa integra, Google Cloud imposta il pool attivo sulle tre VM principali integre, vm-a1, vm-a2 e vm-d2, e distribuisce le nuove connessioni tra di esse.

Passaggi successivi