Informazioni sul supporto di più reti per i pod


Questa pagina descrive il supporto di più reti per i pod, inclusi casi d'uso, concetti pertinenti, terminologia e vantaggi.

Panoramica

Google Cloud supporta più interfacce di rete a livello di istanza di macchina virtuale (VM). Puoi connettere una VM a un massimo di 8 reti con più interfacce di rete, tra cui la rete predefinita e altre 7 reti.

Il networking di Google Kubernetes Engine (GKE) estende le funzionalità multi-rete ai pod in esecuzione sui nodi. Con il supporto di più reti per i pod, puoi abilitare più interfacce su nodi e pod in un cluster GKE. Il supporto di più reti per i pod rimuove la limitazione unica di interfaccia per i pool di nodi, che limitava i nodi a un unico VPC per il networking.

Ottimizzatore di funzioni di rete (NFO) è un servizio di rete disponibile per GKE che offre supporto multi-rete e un dataplane nativo di Kubernetes ad alte prestazioni. NFO consente le funzioni di rete containerizzate su GKE. Le reti multiple sono uno dei pilastri fondamentali degli NFO.

Per utilizzare il supporto di più reti per i tuoi pod e nodi, consulta Configurare il supporto di più reti per i pod.

Terminologia e concetti

In questa pagina vengono utilizzati i seguenti concetti:

VPC principale: il VPC primario è un VPC preconfigurato che include un insieme di impostazioni e risorse predefinite. Il cluster GKE viene creato in questo VPC. Se elimini il VPC preconfigurato, il cluster GKE viene creato nel VPC principale.

Subnet: in Google Cloud, una subnet è il modo per creare CIDR (Classless Inter-Domain Routing) con netmasks in un VPC. Una subnet ha un singolo intervallo di indirizzi IP principali che viene assegnato ai nodi e può avere più intervalli secondari che possono appartenere a pod e servizi.

Node-network: la rete di nodi si riferisce a una combinazione dedicata di un VPC e una coppia di subnet. All'interno di questa rete di nodi, ai nodi appartenenti al pool di nodi sono allocati indirizzi IP dall'intervallo di indirizzi IP principali.

Intervallo secondario: un intervallo secondario di Google Cloud è un CIDR e una netmask appartenente a una subnet. GKE la utilizza come rete di pod di livello 3. Un pod può connettersi a più reti di pod.

Pod-network: un oggetto di rete che funge da punto di connessione per i pod. La connessione può essere di tipo Layer 3 o Device. Puoi configurare le reti di tipo Device in modalità netdevice o DPDK (Data Plane Development Kit).

Layer 3 reti corrispondono a un intervallo secondario su una subnet. Device corrisponde a una subnet su un VPC. Il modello dei dati per la rete di pod nella rete GKE multi-rete è il seguente:

  • Per la rete Layer 3: VPC -> Nome subnet -> Nome intervallo secondario

  • Per la rete Device: VPC -> Nome subnet

Rete di pod predefinita: Google Cloud crea una rete di pod predefinita durante la creazione del cluster. La rete di pod predefinita utilizza il VPC principale come rete di nodi. La rete di pod predefinita è disponibile su tutti i nodi e pod dei cluster, per impostazione predefinita.

Pod con più interfacce: più interfacce sui pod non possono connettersi alla stessa rete di pod.

Il seguente diagramma mostra una tipica architettura dei cluster GKE con reti Layer 3:

cluster su più reti

Per le reti di tipo Device, che possono essere configurate in modalità netdevice o DPDK, la VM vNIC viene gestita come risorsa e passata al pod. In questo caso, la rete di pod è mappata direttamente alla rete di nodi. Gli intervalli secondari non sono obbligatori per le reti di tipo Device.

Reti di pod e nodi

Casi d'uso

Il supporto di più reti per i pod è adatto ai seguenti casi d'uso:

  • Esegui il deployment delle funzioni di rete containerizzate: se esegui le funzioni di rete in container, che hanno piani di gestione e dati separati. La rete multipla per i pod isola le reti per piani utente diversi, alte prestazioni o bassa latenza da interfacce specifiche o multi-tenancy a livello di rete. Ciò è necessario per la conformità, la qualità del servizio (QoS) e la sicurezza.
  • Connetti il VPC all'interno della stessa organizzazione e dello stesso progetto: vuoi creare cluster GKE in un VPC e devi connetterti ai servizi in un altro VPC. Puoi utilizzare l'opzione con nodi multi-NIC per la connettività diretta. Ciò potrebbe essere dovuto a un modello hub e spoke, in cui un servizio centralizzato (logging, autenticazione) opera all'interno di un VPC hub e gli spoke richiedono una connettività privata per accedervi. Puoi utilizzare il supporto di più reti per i pod per connettere direttamente i pod in esecuzione nel cluster GKE al VPC dell'hub.
  • Esegui applicazioni DPDK con VFIO: vuoi eseguire applicazioni DPDK che richiedono l'accesso al NIC sul nodo tramite il driver VFIO. Puoi ottenere la frequenza ottimale di pacchetti bypassando completamente il kernel, Kubernetes e GKE Dataplane V2.
  • Abilita l'accesso diretto a vNIC bypassando Kubernetes e GKE Dataplane V2: esegui le funzioni di rete in container che richiedono l'accesso diretto alla scheda NIC (Network Interface Card) sul nodo. Ad esempio, le applicazioni di computing ad alte prestazioni (HPC) che vogliono bypassare Kubernetes e GKE Dataplane V2 per ottenere la minore latenza. Alcune applicazioni vogliono anche l'accesso alle informazioni della topologia PCIe del NIC per collocarle con altri dispositivi come la GPU.

Vantaggi

Il supporto di più reti per i pod offre i seguenti vantaggi:

  • Isolamento del traffico: il supporto di più reti per i pod consente di isolare il traffico in un cluster GKE. Puoi creare pod con più interfacce di rete per separare il traffico in base alle funzionalità, ad esempio management e dataplane, all'interno di pod che eseguono specifiche funzioni Cloud Native Functions (CNF).
  • Dual homing: il doppio homing consente a un pod di avere più interfacce e di instradare il traffico a VPC diversi, consentendo al pod di stabilire connessioni con un VPC principale e secondario. Se si verificano problemi in un solo VPC, l'applicazione può ricorrere al VPC secondario.
  • Segmentazione della rete: i pod possono connettersi a reti interne o esterne in base alle esigenze del carico di lavoro. A seconda dei requisiti specifici dei tuoi carichi di lavoro, puoi scegliere quali pod o gruppi di pod si connettono a ciascuna rete. Ad esempio, puoi utilizzare una rete interna per la comunicazione est-ovest e una rete esterna per l'accesso a internet. Questo ti consente di personalizzare la connettività di rete dei tuoi carichi di lavoro in base alle loro esigenze specifiche.
  • Prestazioni ottimali con DPDK: il supporto di più reti per i pod in GKE consente l'esecuzione delle applicazioni DPDK nei pod GKE, offrendo prestazioni ottimali di elaborazione dei pacchetti.
  • NIC host disponibile direttamente nel pod: il supporto del NIC in modalità netdevice con più reti passa il NIC della VM direttamente al pod, bypassando Kubernetes e GKE Dataplane V2. Questo consente di ottenere la latenza più bassa per la collaborazione tra dispositivi.
  • Prestazioni: per migliorare le prestazioni delle tue applicazioni, puoi connettere le applicazioni alla rete più adatta alle esigenze delle applicazioni.

Passaggi successivi