Informazioni sul supporto di più reti per i pod


Questa pagina descrive il supporto di più reti per i pod, inclusi i casi d'uso, concetti, terminologia e vantaggi.

Panoramica

Google Cloud supporta più interfacce di rete di macchina virtuale (VM). Puoi connettere una VM a un massimo di otto reti diverse interfacce di rete, inclusa la rete predefinita più sette interfacce reti.

Il networking di Google Kubernetes Engine (GKE) estende le funzionalità di più reti ai pod in esecuzione sui nodi. Con il supporto di più reti per i pod, puoi abilitare su più interfacce su nodi e pod in un cluster GKE. Il supporto di più reti per i pod rimuove la limitazione della singola interfaccia per il nodo pool, che hanno limitato i nodi a un singolo VPC per il networking.

NFO (Network Function Optimizer) è un servizio di rete disponibile per GKE che fornisce Supporto di più reti, indirizzi IP permanenti e un piano dati nativo di Kubernetes ad alte prestazioni. NFO consente alle reti containerizzate su GKE. La creazione di più reti è uno dei pilastri fondamentali di NFO.

Per utilizzare il supporto di più reti per pod e nodi, consulta Configura il supporto di più reti per i pod.

Terminologia e concetti

In questa pagina vengono utilizzati i seguenti concetti:

VPC principale: il VPC principale VPC è un VPC preconfigurato che include un insieme di impostazioni e risorse predefinite. Lo strumento GKE in questo VPC viene creato un cluster Kubernetes. Se elimini i dati preconfigurati VPC, il cluster GKE viene creato nell'istanza in un VPC.

Subnet: in Google Cloud, una subnet è il modo per creare CIDR (Classless Inter-Domain Routing) con netmask in un VPC. R una subnet ha un singolo intervallo di indirizzi IP principali che viene assegnato ai nodi possono avere più intervalli secondari che appartengono a pod e servizi.

Node-network: si riferisce a una combinazione dedicata di una una coppia di VPC e subnet. All'interno di questa rete di nodi, che appartengono al pool di nodi, sono allocati indirizzi IP dell'IP di indirizzi IP esterni.

Intervallo secondario: un intervallo secondario di Google Cloud è un CIDR e una netmask a una subnet. GKE la usa come rete di pod di livello 3. R Il pod può connettersi a più reti di pod.

Pod-network: un oggetto di rete che funge da punto di connessione per i pod. La connessione può essere di tipo Layer 3 o Device. Puoi configura Device di tipo Reti in netdevice o Data Plane Development Kit (DPDK).

Layer 3 rete corrisponde a un intervallo secondario su una subnet. Device rete a una subnet su un VPC. Il modello dei dati per La rete di pod in GKE con più reti è il seguente:

  • Per la rete Layer 3: VPC -> Nome subnet -> Nome intervallo secondario

  • Per la rete Device: VPC -> Nome subnet

Rete di pod predefinita: Google Cloud crea una rete di pod predefinita durante per la creazione del cluster. La rete di pod predefinita utilizza il VPC principale la rete di nodi. La rete di pod predefinita è disponibile su tutti i nodi del cluster di pod, per impostazione predefinita.

Pod con più interfacce: sui pod non possono essere presenti più interfacce connettersi alla stessa rete di pod.

Il seguente diagramma mostra una tipica architettura dei cluster GKE con Layer 3 reti:

cluster a più reti

Per le reti di tipo Device, che possono essere configurate in modalità netdevice o DPDK, la VM vNIC viene gestita come risorsa e passata al pod. Le mappe della rete di pod direttamente a Node-network in questo caso. Gli intervalli secondari non sono obbligatori per Device reti digitate.

Reti di pod e nodi

Casi d'uso

Il supporto di più reti per i pod risponde ai seguenti casi d'uso:

  • Esegui il deployment delle funzioni di rete containerizzate: se esegui le funzioni di rete in container, che hanno piani di gestione e dati separati. Più reti per i pod isola le reti per piani utente diversi, con prestazioni elevate o basse latenza da interfacce specifiche o multi-tenancy a livello di rete. Questo è necessarie per conformità, QoS e sicurezza.
  • Connetti il VPC all'interno della stessa organizzazione e dello stesso progetto: vuoi creare cluster GKE in un VPC e devi per la connessione ai servizi in un altro VPC. Puoi utilizzare lo l'opzione nodi multi-NIC per la connettività diretta. Ciò potrebbe essere dovuto a modello hub-and-spoke, in cui un servizio centralizzato (logging, dell'autenticazione) opera all'interno di un VPC hub e gli spoke e richiede una connettività privata per accedervi. Puoi usare più reti per consentire ai pod di connettere i pod in GKE nel direttamente al VPC dell'hub.
  • Esegui applicazioni DPDK con VFIO: vuoi eseguire applicazioni DPDK che richiedono l'accesso al NIC sul nodo tramite il driver VFIO. Puoi raggiungere la velocità ottimale di pacchetti bypassando il kernel, Kubernetes GKE Dataplane V2 completamente.
  • Abilita l'accesso diretto a vNIC che bypassa Kubernetes e GKE Dataplane V2: Le funzioni di rete vengono eseguite in container che richiedono l'accesso diretto alla scheda NIC (Network Interface Card) sul nodo. Ad esempio, Alte prestazioni per le applicazioni di computing (HPC) che vogliono bypassare Kubernetes GKE Dataplane V2 per ottenere la latenza più bassa. Alcune applicazioni vogliono anche l'accesso alle informazioni sulla topologia PCIe del NIC da collocare con come GPU,

Vantaggi

Il supporto di più reti per i pod offre i seguenti vantaggi:

  • Isolamento del traffico: il supporto di più reti per i pod consente di isolare il traffico in un cluster GKE. Puoi creare pod con più interfacce di rete, per separare il traffico in base alle funzionalità, come e il piano dati, all'interno dei pod che eseguono specifiche applicazioni funzioni (CNF).
  • Dual homing: il doppio homing consente a un pod di avere più interfacce e instradare il traffico a VPC diversi, in modo che il pod stabilire connessioni con un VPC primario e secondario. Se si verificano problemi per un VPC, l'applicazione può al VPC secondario.
  • Segmentazione di rete: i pod possono connettersi a reti interne o esterne in base alle esigenze dei carichi di lavoro. In base ai requisiti specifici del carichi di lavoro standard, puoi scegliere quali pod o gruppi di pod in ogni rete. Ad esempio, puoi utilizzare una rete interna per comunicazione e una rete esterna per l'accesso a internet. Questo consente di per personalizzare la connettività di rete dei carichi di lavoro in base alle loro specifiche e alle esigenze aziendali.
  • Prestazioni ottimali con DPDK: supporto di più reti per i pod in GKE consente l'esecuzione delle applicazioni DPDK in GKE di pod, con prestazioni ottimali di elaborazione dei pacchetti.
  • NIC host direttamente disponibile nel pod: supporto dei NIC in modalità netdevice con più reti trasmette il NIC della VM direttamente al pod, bypassando Kubernetes GKE Dataplane V2. Questo può ottenere la latenza più bassa per la collaborazione tra i dispositivi.
  • Prestazioni. Per migliorare le prestazioni delle tue applicazioni. le prestazioni, puoi collegare le applicazioni alla rete più adatte per la distribuzione e alle esigenze aziendali.

Passaggi successivi