Informazioni sul supporto di più reti per i pod


Questa pagina descrive il supporto di più reti per i pod, inclusi casi d'uso, concetti, terminologia e vantaggi pertinenti.

Panoramica

Google Cloud supporta più interfacce di rete a livello di istanza della macchina virtuale (VM). Puoi connettere una VM a un massimo di otto reti con più interfacce di rete, inclusa la rete predefinita più altre sette reti.

Il networking di Google Kubernetes Engine (GKE) estende le funzionalità di networking multiplo ai pod eseguiti sui nodi. Con il supporto di più reti per i pod, puoi abilitare più interfacce su nodi e pod in un cluster GKE. Il supporto di più reti per i pod rimuove la limitazione della singola interfaccia per i pool di nodi, che limitava i nodi a una singola VPC per il networking.

Network Function Optimizer (NFO) è un servizio di rete disponibile per GKE che fornisce supporto per più reti, indirizzi IP permanenti e un piano dati ad alte prestazioni nativo di Kubernetes. NFO abilita le funzioni di rete containerizzate su GKE. La multipiattaforma è uno dei pilastri fondamentali della NFO.

Per utilizzare il supporto di più reti per i pod e i nodi, consulta Configurare il supporto di più reti per i pod.

Terminologia e concetti

Questa pagina utilizza i seguenti concetti:

VPC principale: il VPC principale è un VPC preconfigurato fornito con un insieme di impostazioni e risorse predefinite. Il cluster GKE viene creato in questa VPC. Se elimini la VPC preconfigurata, il cluster GKE viene creato nella VPC principale.

Subnet: in Google Cloud, una subnet è il modo per creare Classless Inter-Domain Routing (CIDR) con le maschere di rete in un VPC. Una sottorete ha un singolo intervallo di indirizzi IP principale assegnato ai nodi e può avere più intervalli secondari che possono appartenere a pod e servizi.

Nodo-rete: il parametro nodo-rete fa riferimento a una combinazione dedicata di una coppia di VPC e subnet. All'interno di questa rete di nodi, ai nodi appartenenti al pool di nodi vengono assegnati indirizzi IP dall'intervallo di indirizzi IP principale.

Intervallo secondario: un intervallo secondario di Google Cloud è un CIDR e una netmask appartenenti a una subnet. GKE la utilizza come rete di pod di livello 3. Un Pod può connettersi a più reti Pod.

Pod-network: un oggetto Network che funge da punto di connessione per i pod. La connessione può essere di tipo Layer 3 o Device. Puoi configurare le reti di tipo Device in modalità netdevice o Data Plane Development Kit (DPDK).

Le reti Layer 3 corrispondono a un intervallo secondario in una subnet. La rete Device corrisponde a una subnet in una VPC. Il modello dei dati per la rete del pod in GKE multi-network è il seguente:

  • Per la rete Layer 3: VPC -> Nome subnet -> Nome intervallo secondario

  • Per la rete Device: VPC -> Nome subnet

Rete di pod predefinita: Google Cloud crea una rete di pod predefinita durante la creazione del cluster. La rete pod predefinita utilizza la VPC principale come rete del nodo. La rete pod predefinita è disponibile su tutti i node e i pod del cluster per impostazione predefinita.

Pod con più interfacce: più interfacce sui pod non possono collegarsi alla stessa rete del pod.

Il seguente diagramma mostra una tipica architettura dei cluster GKE con reti Layer 3:

cluster multi-rete

Per le reti di tipo Device, che possono essere configurate in modalità netdevice o DPDK, il vNIC della VM viene gestito come risorsa e passato al pod. In questo caso, la rete di pod è mappata direttamente alla rete di nodi. Gli intervalli secondari non sono obbligatori per le reti di tipo Device.

Reti di pod e nodi

Casi d'uso

Il supporto di più reti per i pod soddisfa i seguenti casi d'uso:

  • Esegui il deployment di funzioni di rete containerizzate:se esegui le funzioni di rete in contenitori, che hanno piani di gestione e dati separati. La rete multipla per i pod isola le reti per piani utente diversi, prestazioni elevate o latenza ridotta da interfacce specifiche o multitenancy a livello di rete. È necessario per la conformità, la qualità del servizio e la sicurezza.
  • Connetti un VPC all'interno della stessa organizzazione e dello stesso progetto: vuoi creare cluster GKE in un VPC e devi connetterti ai servizi in un altro VPC. Puoi utilizzare l'opzione dei nodi con più NIC per la connettività diretta. Ciò potrebbe essere dovuto a un modello hub-and-spoke, in cui un servizio centralizzato (registrazione, autenticazione) opera all'interno di un VPC hub e gli spoke richiedono connettività privata per accedervi. Puoi utilizzare il supporto di più reti per i pod per connettere i pod in esecuzione nel cluster GKE direttamente alla VPC hub.
  • Esegui applicazioni DPDK con VFIO: vuoi eseguire applicazioni DPDK che richiedono l'accesso alla NIC sul nodo tramite il driver VFIO. Puoi ottenere la frequenza di pacchetti ottimale bypassando completamente il kernel, Kubernetes e GKE Dataplane V2.
  • Abilita l'accesso diretto alla vNIC bypassando Kubernetes e GKE Dataplane V2: esegui le funzioni di rete in container che richiedono l'accesso diretto alla scheda di interfaccia di rete (NIC) sul nodo. Ad esempio, le applicazioni di calcolo ad alte prestazioni (HPC) che vogliono bypassare Kubernetes e GKE Dataplane V2 per ottenere la latenza più bassa. Alcune applicazioni vogliono anche accedere alle informazioni sulla topologia PCIe della NIC per collocarla con altri dispositivi come la GPU.

Vantaggi

Il supporto di più reti per i pod offre i seguenti vantaggi:

  • Isolamento del traffico: il supporto di più reti per i pod ti consente di isolare il traffico in un cluster GKE. Puoi creare pod con più interfacce di rete per separare il traffico in base alle funzionalità, ad esempio gestione e piano dati, all'interno di pod che eseguono funzioni Cloud Native (CNF) specifiche.
  • Dual homing: il dual homing consente a un pod di avere più interfacce e di indirizzare il traffico a VPC diversi, in modo che il pod possa stabilire connessioni sia con un VPC principale che con uno secondario. Se si verificano problemi con un VPC, l'applicazione può eseguire il fallback al VPC secondario.
  • Segmentazione della rete: i pod possono connettersi a reti interne o esterne in base alle esigenze del carico di lavoro. A seconda dei requisiti specifici dei tuoi carichi di lavoro, puoi scegliere quali pod o gruppi di pod connettere a ogni rete. Ad esempio, puoi utilizzare una rete interna per le comunicazioni est-ovest e una rete esterna per l'accesso a internet. In questo modo, puoi personalizzare la connettività di rete dei tuoi carichi di lavoro in base alle loro esigenze specifiche.
  • Prestazioni ottimali con DPDK: il supporto di più reti per i pod in GKE consente alle applicazioni DPDK di essere eseguite nei pod GKE, il che offre prestazioni ottimali per l'elaborazione dei pacchetti.
  • NIC host direttamente disponibile nel pod: il supporto della NIC in modalità netdevice con più reti passa la NIC della VM direttamente al pod, bypassando Kubernetes e GKE Dataplane V2. In questo modo è possibile ottenere la latenza più bassa per la collaborazione tra dispositivi.
  • Rendimento: per migliorare il rendimento delle applicazioni, puoi collegarle alla rete più adatta alle loro esigenze.

Passaggi successivi