Questa pagina descrive il supporto di più reti per i pod, inclusi casi d'uso, concetti, terminologia e vantaggi pertinenti.
Panoramica
Google Cloud supporta più interfacce di rete di macchina virtuale (VM). Puoi connettere una VM a un massimo di otto reti diverse interfacce di rete, inclusa la rete predefinita più sette interfacce reti.
Il networking di Google Kubernetes Engine (GKE) estende le funzionalità di networking multiplo ai pod eseguiti sui nodi. Con il supporto di più reti per i pod, puoi abilitare su più interfacce su nodi e pod in un cluster GKE. Il supporto di più reti per i pod rimuove la limitazione della singola interfaccia per il nodo pool, che hanno limitato i nodi a un singolo VPC per il networking.
NFO (Network Function Optimizer) è un servizio di rete disponibile per GKE che fornisce Supporto di più reti, indirizzi IP permanenti e un piano dati nativo di Kubernetes ad alte prestazioni. NFO abilita le funzioni di rete containerizzate su GKE. La creazione di più reti è uno dei pilastri fondamentali di NFO.
Per utilizzare il supporto di più reti per i pod e i nodi, consulta Configurare il supporto di più reti per i pod.
Terminologia e concetti
In questa pagina vengono utilizzati i seguenti concetti:
VPC principale: il VPC principale è un VPC preconfigurato fornito con un insieme di impostazioni e risorse predefinite. Il cluster GKE viene creato in questa VPC. Se elimini i dati preconfigurati VPC, il cluster GKE viene creato nell'istanza in un VPC.
Subnet: in Google Cloud, una subnet è il modo per creare Classless Inter-Domain Routing (CIDR) con le maschere di rete in un VPC. Una sottorete ha un singolo intervallo di indirizzi IP principale assegnato ai nodi e può avere più intervalli secondari che possono appartenere a pod e servizi.
Nodo-rete: il parametro nodo-rete si riferisce a una combinazione dedicata di una coppia di VPC e subnet. All'interno di questa rete di nodi, che appartengono al pool di nodi, vengono allocati indirizzi IP dell'IP di indirizzi IP esterni.
Intervallo secondario: un intervallo secondario di Google Cloud è un CIDR e una netmask appartenenti a una subnet. GKE la utilizza come rete di pod di livello 3. Un Pod può connettersi a più reti Pod.
Pod-network: un oggetto Network che funge da punto di connessione per i pod.
La connessione può essere di tipo Layer 3
o Device
. Puoi
configura Device
di tipo Reti in netdevice
o Data Plane Development Kit
(DPDK).
Layer 3
rete corrisponde a un intervallo secondario su una subnet. Device
rete
a una subnet su un VPC. Il modello dei dati per
La rete di pod in GKE con più reti è il seguente:
Per la rete
Layer 3
: VPC -> Nome subnet -> Nome intervallo secondarioPer la rete
Device
: VPC -> Nome subnet
Rete di pod predefinita: Google Cloud crea una rete di pod predefinita durante per la creazione del cluster. La rete di pod predefinita utilizza il VPC principale la rete di nodi. La rete di pod predefinita è disponibile su tutti i nodi del cluster di pod, per impostazione predefinita.
Pod con più interfacce: più interfacce sui pod non possono collegarsi alla stessa rete del pod.
Il seguente diagramma mostra una tipica architettura dei cluster GKE
con Layer 3
reti:
Per le reti di tipo Device
, che possono essere configurate in modalità netdevice
o DPDK
,
la VM vNIC viene gestita come risorsa e passata al pod. In questo caso, la rete di pod è mappata direttamente alla rete di nodi. Gli intervalli secondari non sono obbligatori per
Device
reti digitate.
Casi d'uso
Il supporto di più reti per i pod risponde ai seguenti casi d'uso:
- Esegui il deployment delle funzioni di rete containerizzate: se esegui le funzioni di rete in container, che hanno piani di gestione e dati separati. Più reti per i pod isola le reti per piani utente diversi, con prestazioni elevate o basse latenza da interfacce specifiche o multi-tenancy a livello di rete. È necessario per la conformità, la qualità del servizio e la sicurezza.
- Connetti il VPC all'interno della stessa organizzazione e dello stesso progetto: creare cluster GKE in un VPC e avere bisogno per la connessione ai servizi in un altro VPC. Puoi utilizzare l'opzione dei nodi con più NIC per la connettività diretta. Ciò potrebbe essere dovuto a modello hub-and-spoke, in cui un servizio centralizzato (logging, dell'autenticazione) opera all'interno di un VPC hub e gli spoke e richiede una connettività privata per accedervi. Puoi usare più reti per consentire ai pod di connettere i pod in GKE nel direttamente al VPC dell'hub.
- Esegui applicazioni DPDK con VFIO: vuoi eseguire applicazioni DPDK che richiedono l'accesso al NIC sul nodo tramite il driver VFIO. Puoi raggiungere la velocità ottimale di pacchetti bypassando il kernel, Kubernetes GKE Dataplane V2 completamente.
- Abilita l'accesso diretto alla vNIC bypassando Kubernetes e GKE Dataplane V2: esegui le funzioni di rete in container che richiedono l'accesso diretto alla scheda di interfaccia di rete (NIC) sul nodo. Ad esempio, Alte prestazioni per le applicazioni di computing (HPC) che vogliono bypassare Kubernetes GKE Dataplane V2 per ottenere la latenza più bassa. Alcune applicazioni vogliono anche accedere alle informazioni sulla topologia PCIe della scheda di rete per collocarla con altri dispositivi come la GPU.
Vantaggi
Il supporto di più reti per i pod offre i seguenti vantaggi:
- Isolamento del traffico: il supporto di più reti per i pod ti consente di isolare il traffico in un cluster GKE. Puoi creare pod con più interfacce di rete, per separare il traffico in base alle funzionalità, come e il piano dati, all'interno dei pod che eseguono specifiche (CNF).
- Dual homing: il dual homing consente a un pod di avere più interfacce e di indirizzare il traffico a VPC diversi, in modo che il pod possa stabilire connessioni sia con un VPC principale che con uno secondario. Se si verificano problemi con un VPC, l'applicazione può eseguire il fallback al VPC secondario.
- Segmentazione di rete: i pod possono connettersi a reti interne o esterne in base alle esigenze dei carichi di lavoro. A seconda dei requisiti specifici dei tuoi carichi di lavoro, puoi scegliere quali pod o gruppi di pod connettere a ogni rete. Ad esempio, puoi utilizzare una rete interna per comunicazione e una rete esterna per l'accesso a internet. Questo consente di per personalizzare la connettività di rete dei carichi di lavoro in base alle loro specifiche e alle esigenze aziendali.
- Prestazioni ottimali con DPDK: supporto di più reti per i pod in GKE consente l'esecuzione delle applicazioni DPDK in GKE di pod, con prestazioni ottimali di elaborazione dei pacchetti.
- NIC host direttamente disponibile nel pod: il supporto della NIC in modalità
netdevice
con più reti passa la NIC della VM direttamente al pod, bypassando Kubernetes e GKE Dataplane V2. In questo modo è possibile ottenere la latenza più bassa per la collaborazione tra dispositivi. - Prestazioni. Per migliorare le prestazioni delle tue applicazioni. le prestazioni, puoi collegare le applicazioni alla rete più adatte per la distribuzione e alle esigenze aziendali.