Failover per bilanciatori del carico di rete passthrough interni

Puoi configurare un bilanciatore del carico di rete passthrough interno per distribuire le connessioni tra le istanze di macchine virtuali (VM) nei backend primari e quindi passare, se necessario, all'utilizzo dei backend failover. Il failover offre un metodo per aumentare la disponibilità, offrendo al contempo un maggiore controllo su come gestire il carico di lavoro quando le VM di backend principali non sono integri.

Questa pagina descrive concetti e requisiti specifici del failover per i bilanciatori del carico di rete passthrough interni. Assicurati di conoscere le informazioni concettuali contenute nei seguenti articoli prima di configurare il failover per i bilanciatori del carico di rete passthrough interni:

È importante comprendere questi concetti, poiché la configurazione del failover modifica l'algoritmo di distribuzione del traffico standard del bilanciatore del carico di rete passthrough interno.

Per impostazione predefinita, quando aggiungi un backend al servizio di backend di un bilanciatore del carico di rete passthrough interno, questo è un backend principale. Puoi designare un backend come backend di failover quando lo aggiungi al servizio di backend del bilanciatore del carico o modificando il servizio di backend in un secondo momento. I backend di failover ricevono connessioni dal bilanciatore del carico solo dopo che un rapporto configurabile di VM primarie non ha superato i controlli di integrità.

Gruppi di istanze supportati

I gruppi di istanze gestite e non gestite sono supportati come backend. Per semplicità, gli esempi in questa pagina mostrano i gruppi di istanze non gestite.

L'utilizzo di gruppi di istanze gestite con scalabilità automatica e failover potrebbe causare ripetuti failover e failover del pool attivo tra i backend primari e di failover. Google Cloud non ti impedisce di configurare il failover con gruppi di istanze gestite perché il deployment potrebbe trarre vantaggio da questa configurazione.

Architettura

Il seguente semplice esempio mostra un bilanciatore del carico di rete passthrough interno con un backend principale e un backend di failover.

  • Il backend principale è un gruppo di istanze non gestite in us-west1-a.
  • Il backend di failover è un gruppo di istanze non gestite diverso in us-west1-c.
Esempio di failover per i bilanciatori del carico di rete passthrough interni.
Esempio di failover per i bilanciatori del carico di rete passthrough interni (fai clic per ingrandire).

L'esempio successivo mostra un bilanciatore del carico di rete passthrough interno con due backend primari e due backend di failover, entrambi distribuiti tra due zone nella regione us-west1. Questa configurazione aumenta l'affidabilità perché non dipende da una singola zona per tutti i backend primari o di failover.

  • I backend principali sono i gruppi di istanze non gestite ig-a e ig-d.
  • I backend di failover sono gruppi di istanze non gestite ig-b e ig-c.
Failover del bilanciatore del carico di rete passthrough interno multizona.
Failover del bilanciatore del carico di rete passthrough interno multizona (fai clic per ingrandire).

Durante il failover, entrambi i backend primari diventano inattivi, mentre le VM integre in entrambi i backend di failover diventano attive. Per una spiegazione completa di come funziona il failover in questo esempio, vedi l'esempio di failover.

VM e gruppi di istanze di backend

I gruppi di istanze non gestite nei bilanciatori del carico di rete passthrough interni sono backend primari o backend di failover. Puoi designare un backend come failover nel momento in cui lo aggiungi al servizio di backend o modificando il backend dopo averlo aggiunto. In caso contrario, i gruppi di istanze non gestite sono primari per impostazione predefinita.

Puoi configurare più backend primari e più backend di failover in un singolo bilanciatore del carico di rete passthrough interno aggiungendoli al servizio di backend del bilanciatore del carico.

Una VM principale è un membro di un gruppo di istanze da te definito come backend principale. Le VM in un backend principale partecipano al pool attivo del bilanciatore del carico (descritto nella prossima sezione), a meno che il bilanciatore del carico non passi ai propri backend di failover.

Una VM di backup è un membro di un gruppo di istanze da te definito come backend di failover. Le VM in un backend di failover partecipano al pool attivo del bilanciatore del carico quando le VM primarie diventano non integri. Il numero di VM in stato non integro che attiva il failover è una percentuale configurabile.

Limiti

  • VM. Puoi avere fino a 250 VM nel pool attivo. In altre parole, i gruppi di istanza di backend principale possono avere un totale di 250 VM primarie, mentre i gruppi di istanza di backend di failover possono avere un totale di 250 VM di backup.

  • Gruppi di istanze non gestite. Puoi avere fino a 50 gruppi di istanza di backend primarie e fino a 50 gruppi di istanza di backend di failover.

Ad esempio, un deployment massimo può includere 5 backend primari e 5 backend di failover, con ogni gruppo di istanze contenente 50 VM.

Pool attivo

Il pool attivo è la raccolta di VM di backend a cui un bilanciatore del carico di rete passthrough interno invia nuove connessioni. L'appartenenza delle VM di backend al pool attivo viene calcolata automaticamente in base ai backend integri e alle condizioni che puoi specificare, come descritto in Rapporto di failover.

Il pool attivo non combina mai le VM principali e le VM di backup. I seguenti esempi chiariscono le possibilità di appartenenza. Durante il failover, il pool attivo contiene solo VM di backup. Durante il funzionamento normale (failback), il pool attivo contiene solo VM principali.

Pool attivo in caso di failover e failover.
Pool attivo su failover e failover (fai clic per ingrandire).

Failover e failover

Failover e failback sono i processi automatici che spostano le VM di backend all'interno o all'esterno del pool attivo del bilanciatore del carico. Quando Google Cloud rimuove le VM primarie dal pool attivo e aggiunge VM di failover integro a quest'ultimo, il processo si chiama failover. Quando Google Cloud annulla questa operazione, il processo si chiama "failback".

Criterio di failover

Un criterio di failover è una raccolta di parametri che Google Cloud utilizza per il failover e il failover. Ogni bilanciatore del carico di rete passthrough interno ha un criterio di failover con più impostazioni:

  • Rapporto di failover
  • Eliminazione del traffico quando tutte le VM di backend non sono integri
  • Svuotamento della connessione in caso di failover e failover

Rapporto di failover

Un rapporto di failover configurabile determina quando Google Cloud esegue un failover o un failover, modificando l'appartenenza nel pool attivo. Il rapporto può essere compreso tra 0.0 e 1.0 inclusi. Se non specifichi un rapporto di failover, Google Cloud utilizza il valore predefinito 0.0. Una best practice consiste nell'impostare il rapporto di failover su un numero appropriato per il tuo caso d'uso anziché utilizzare questa impostazione predefinita.

Condizioni VM nel pool attivo
  1. Il rapporto di failover (x) != 0.0.
    Il rapporto tra VM primarie integre >= x.
  2. Il rapporto di failover (x) = 0.0.
    Il numero di VM primarie in stato integro > 0.
Tutte le VM primarie in stato integro
Se almeno una VM di backup è integro e:
  1. Il rapporto di failover (x) != 0.0.
    Il rapporto tra VM primarie integre < x.
  2. Il rapporto di failover = 0.0.
    Il numero di VM primarie in stato integro = 0.
Tutte le VM di backup in stato integro
Se tutte le VM principali e tutte le VM di backup sono in stato non integro e non hai configurato il bilanciatore del carico in modo da rilasciare il traffico in questa situazione Tutte le VM principali, come ultima alternativa

I seguenti esempi chiariscono l'appartenenza al pool attivo. Per un esempio relativo ai calcoli, vedi l'esempio di failover.

  • Un rapporto di failover 1.0 richiede che tutte le VM primarie siano integri. Quando almeno una VM principale non è integro, Google Cloud esegue un failover, spostando le VM di backup nel pool attivo.
  • Un rapporto di failover 0.1 richiede che almeno il 10% delle VM principali sia integro; in caso contrario, Google Cloud esegue un failover.
  • Un rapporto di failover 0.0 indica che Google Cloud esegue un failover solo quando tutte le VM principali non sono integri. Il failover non si verifica se almeno una VM principale è integro.

Un bilanciatore del carico di rete passthrough interno distribuisce le connessioni tra le VM nel pool attivo in base all'algoritmo di distribuzione del traffico.

Eliminazione del traffico quando tutte le VM di backend non sono integri

Per impostazione predefinita, quando tutte le VM primarie e di backup non sono integri, Google Cloud distribuisce le nuove connessioni solo tra le VM principali. Lo fa come ultima risorsa. Le VM di backup sono escluse da questa distribuzione dell'ultima risorsa delle connessioni.

Se preferisci, puoi configurare il bilanciatore del carico di rete passthrough interno in modo da interrompere le nuove connessioni quando tutte le VM principali e di backup non sono integri.

Svuotamento della connessione in caso di failover e failover

Lo svuotamento della connessione consente alle sessioni TCP esistenti di rimanere attive per un periodo di tempo configurabile fino a un periodo di tempo configurabile anche dopo lo stato di integrità delle VM di backend. Se il protocollo per il bilanciatore del carico è TCP, si verifica quanto segue:

  • Per impostazione predefinita, lo svuotamento della connessione è abilitato. Le sessioni TCP esistenti possono rimanere su una VM di backend per un massimo di 300 secondi (5 minuti), anche se la VM di backend è in stato non integro o non si trova nel pool attivo del bilanciatore del carico.

  • Puoi disabilitare lo svuotamento della connessione durante gli eventi di failover e di failback. La disabilitazione dello svuotamento della connessione durante il failover e il failover garantisce che tutte le sessioni TCP, incluse quelle stabilite, vengano terminate rapidamente. Le connessioni alle VM di backend potrebbero essere chiuse con un pacchetto di reimpostazione TCP.

La disabilitazione dello svuotamento della connessione in caso di failover e failover è utile in scenari come i seguenti:

  • Applicazione di patch alle VM di backend. Prima dell'applicazione di patch, configura le VM principali in modo che non superino i controlli di integrità, in modo che il bilanciatore del carico esegua un failover. La disabilitazione svuotamento della connessione garantisce che tutte le connessioni vengano trasferite rapidamente e in modo pianificato alle VM di backup. In questo modo puoi installare aggiornamenti e riavviare le VM principali senza che vengano mantenute le connessioni esistenti. Dopo l'applicazione di patch, Google Cloud può eseguire un failover quando un numero sufficiente di VM primarie (come definito dal rapporto di failover) supera i controlli di integrità.

  • Una singola VM di backend per la coerenza dei dati. Per assicurarti che una sola VM principale sia la destinazione di tutte le connessioni, disattiva svuotamento della connessione in modo che il passaggio da una VM principale a una VM di backup non consenta la permanenza delle connessioni esistenti su entrambe. Questo riduce la possibilità di incoerenze nei dati mantenendo attiva una sola VM di backend in un determinato momento.

Esempio di failover

L'esempio seguente descrive il comportamento di failover per l'esempio del bilanciatore del carico di rete passthrough interno multizona presentato nella sezione relativa all'architettura.

Failover del bilanciatore del carico di rete passthrough interno multizona.
Failover del bilanciatore del carico di rete passthrough interno multizona (fai clic per ingrandire).

I backend principali per questo bilanciatore del carico sono i gruppi di istanze non gestite ig-a in us-west1-a e ig-d in us-west1-c. Ogni gruppo di istanze contiene due VM. Tutte e quattro le VM di entrambi i gruppi di istanze sono VM primarie:

  • vm-a1 in ig-a
  • vm-a2 in ig-a
  • vm-d1 in ig-d
  • vm-d2 in ig-d

I backend di failover per questo bilanciatore del carico sono i gruppi di istanze non gestite ig-b in us-west1-a e ig-c in us-west1-c. Ogni gruppo di istanze contiene due VM. Tutte e quattro le VM di entrambi i gruppi di istanze sono VM di backup:

  • vm-b1 in ig-b
  • vm-b2 in ig-b
  • vm-c1 in ig-c
  • vm-c2 in ig-c

Supponi di voler configurare un criterio di failover per questo bilanciatore del carico, in modo che le nuove connessioni vengano consegnate alle VM di backup quando il numero di VM primarie integre è inferiore a due. A questo scopo, imposta il rapporto di failover su 0.5 (50%). Google Cloud utilizza il rapporto di failover per calcolare il numero minimo di VM primarie che devono essere in stato integro moltiplicando il rapporto per il numero di VM primarie: 4 × 0.5 = 2

Quando tutte e quattro le VM principali sono integri, Google Cloud distribuisce le nuove connessioni su tutte. Quando le VM principali non superano i controlli di integrità:

  • Se vm-a1 e vm-d1 non sono integri, Google Cloud distribuisce nuove connessioni tra le due VM principali in stato integro, vm-a2 e vm-d2, perché il numero di VM principali integre è almeno il minimo.

  • Se anche vm-a2 non supera i controlli di integrità, lasciando una sola VM principale integro, vm-d2, Google Cloud riconosce che il numero di VM primarie integre è inferiore al minimo, perciò esegue un failover. Il pool attivo è impostato sulle quattro VM di backup integre e le nuove connessioni vengono distribuite tra queste quattro (nei gruppi di istanze ig-b e ig-c). Anche se vm-d2 rimane integro, viene rimosso dal pool attivo e non riceve nuove connessioni.

  • Se vm-a2 recupera e supera il controllo di integrità, Google Cloud riconosce che il numero di VM principali integre è almeno il minimo di due, quindi esegue un failover. Il pool attivo è impostato sulle due VM principali in stato integro, vm-a2 e vm-d2, e le nuove connessioni vengono distribuite tra di loro. Tutte le VM di backup vengono rimosse dal pool attivo.

  • Man mano che altre VM principali recuperano e superano i controlli di integrità, Google Cloud le aggiunge al pool attivo. Ad esempio, se vm-a1 diventa integro, Google Cloud imposta il pool attivo sulle tre VM principali in stato integro (vm-a1, vm-a2 e vm-d2) e distribuisce nuove connessioni tra di loro.

Passaggi successivi