Questo documento mostra come configurare Network Connectivity Gateway per un cluster in GKE su Bare Metal.
A volte puoi avere pod in esecuzione in un cluster che devono comunicare con carichi di lavoro in esecuzione in un Virtual Private Cloud (VPC). Questa comunicazione deve essere sicura. E forse è necessario che questa comunicazione avvenga su una rete piatta senza usare un server proxy. Network Connectivity Gateway consente questo tipo di comunicazione.
Network Connectivity Gateway viene eseguito come pod nel cluster. Come mostrato nel diagramma seguente, questa soluzione fornisce tunnel IPsec per il traffico dai pod nel cluster alle VM in un VPC. Quando il pod gateway riceve prefissi per le subnet VPC su una sessione BGP (Border Gateway Protocol), configura l'inoltro utilizzando Dataplane V2. Quando altri pod inviano traffico a un indirizzo con uno di questi prefissi, il traffico viene indirizzato al pod gateway. Quindi il pod gateway instrada il traffico su un tunnel IPsec verso Google Cloud.
Network Connectivity Gateway non supporta le seguenti funzionalità e caratteristiche:
- IPv6 per VPN ad alta disponibilità (e BGP)
- MD5 per BGP
- Bidirectional Forwarding Detection (BFD) per BGP
Creare risorse Google Cloud
Prima di abilitare Network Connectivity Gateway in un cluster, devi disporre delle seguenti risorse Google Cloud:
Un router Cloud
Un gateway VPN ad alta disponibilità
Un gateway VPN peer: un'interfaccia
Due tunnel VPN
Due sessioni BGP: una per ciascuno dei tuoi tunnel VPN
Per informazioni su come creare e configurare queste risorse, consulta Creazione di un gateway VPN ad alta disponibilità per un gateway VPN peer.
Quando crei le risorse, raccogli le seguenti informazioni e rendile disponibili per un secondo momento:
I due indirizzi IP esterni che Google Cloud ha assegnato al gateway VPN ad alta disponibilità.
L'indirizzo IP pubblico per il traffico IPsec/VPN che lascia l'organizzazione. Questo indirizzo potrebbe essere il risultato di una rete NAT (Network Address Translation).
La tua chiave precondivisa.
Il numero di sistema autonomo (ASN) che hai assegnato al tuo router Cloud per le sessioni BGP.
L'ASN che hai scelto di utilizzare nel cluster on-premise per le sessioni BGP.
Per ogni sessione BGP, l'indirizzo rispetto al collegamento locale, ad esempio
169.254.1.1
, deve essere utilizzato dal router Cloud e l'indirizzo locale rispetto al collegamento da utilizzare nel cluster on-premise.
Per informazioni su come trovare i dettagli della configurazione della sessione BGP, vedi Visualizzare la configurazione delle sessioni BGP.
Requisiti per i cluster
Il download dello strumento a riga di comando del gateway della connettività di rete, ncgctl-v1.12.0-linux-amd64.tar.gz
, è
compatibile solo con la versione 1.12 di GKE su Bare Metal. Se stai creando un nuovo cluster della versione 1.12.0, abiliti Network Connectivity Gateway con un'annotazione nel file di configurazione del cluster.
Per abilitare Network Connectivity Gateway durante la creazione del cluster:
Nel file di configurazione del cluster, aggiungi l'annotazione
baremetal.cluster.gke.io/enable-gng: "true"
.apiVersion: baremetal.cluster.gke.io/v1 kind: Cluster metadata: annotations: baremetal.cluster.gke.io/enable-gng: "true" name: my-cluster namespace: cluster-my-cluster spec: ... anthosBareMetalVersion: 1.12.0 ...
Utilizza
bmctl create
per creare il cluster:bmctl create cluster -c CLUSTER_NAME
Sostituisci
CLUSTER_NAME
con il nome specificato al momento della creazione del file di configurazione del cluster. Per ulteriori informazioni sulla creazione dei cluster, vedi Panoramica della creazione dei cluster.
Scarica
Per scaricare ncgctl
, lo strumento a riga di comando Network Connectivity Gateway, segui questi passaggi:
Scarica i componenti e le definizioni delle risorse personalizzate Network Connectivity Gateway:
gsutil cp gs://ncg-release/anthos-baremetal/ncgctl-v1.12.0-linux-amd64.tar.gz .
Estrai l'archivio:
tar -xvzf ncgctl-v1.12.0-linux-amd64.tar.gz
Installa
Per installare ncgctl
, procedi nel seguente modo:
Esegui i controlli preflight per assicurarti che il cluster soddisfi i prerequisiti. Ad esempio, assicurati che Dataplane V2 sia abilitato.
./bin/ncgctl --verify --kubeconfig CLUSTER_KUBECONFIG
Sostituisci
CLUSTER_KUBECONFIG
con il percorso del file kubeconfig del cluster.Installa Network Connectivity Gateway.
./bin/ncgctl --install --kubeconfig CLUSTER_KUBECONFIG
Se hai già un cluster versione 1.12.0, puoi utilizzare il seguente comando
ncgctl
per abilitare Network Connectivity Gateway:./bin/ncgctl --enable-ncg-on-existing-cluster
Il comando
ncgctl
accetta-e
come versione abbreviata del flag di abilitazione.Per visualizzare altre scorciatoie e altre risorse di assistenza per i comandi, usa il seguente comando:
./bin/ncgctl --help
Crea un secret per la tua chiave precondivisa
I gateway alle estremità dei tunnel IPsec utilizzano un secret contenente la chiave precondivisa per l'autenticazione.
Per creare il secret, segui questi passaggi:
Crea un file denominato
psk-secret.yaml
con i seguenti dettagli del manifest del secret:apiVersion: v1 kind: Secret metadata: name: "ike-key" namespace: "kube-system" data: psk: PRE_SHARED_KEY
Sostituisci
PRE_SHARED_KEY
con una chiave precondivisa con codifica Base64. Se hai una chiave in testo non crittografato, codificala nel formato base64 prima di creare questo secret. Ad esempio, se la console Google Cloud ha generato una chiave per te, questa è in testo non crittografato e devi codificarla. Per codificare una chiave in Base64:echo -n PLAINTEXT_KEY | base64
Crea il secret:
kubectl --kubeconfig CLUSTER_KUBECONFIG apply -f psk-secret.yaml
Crea due risorse personalizzate OverlayVPNTunnel
Per avviare due sessioni IPsec, crea due risorse personalizzate OverlayVPNTunnel
.
Crea un file denominato
overlay-vpn-tunnels.yaml
con i seguenti dettagli del file manifestOverlayVPNTunnel
:apiVersion: networking.gke.io/v1alpha1 kind: OverlayVPNTunnel metadata: namespace: "kube-system" name: TUNNEL_1_NAME spec: ikeKey: name: "ike-key" namespace: "kube-system" peer: publicIP: PEER_PUBLIC_IP_1 self: publicIP: SELF_PUBLIC_IP localTunnelIP: SELF_LOCAL_TUNNEL_IP_1 --- apiVersion: networking.gke.io/v1alpha1 kind: OverlayVPNTunnel metadata: namespace: "kube-system" name: TUNNEL_2_NAME spec: ikeKey: name: "ike-key" namespace: "kube-system" peer: publicIP: PEER_PUBLIC_IP_2 self: publicIP: SELF_PUBLIC_IP localTunnelIP: SELF_LOCAL_TUNNEL_IP_2
Sostituisci quanto segue:
TUNNEL_NAME_1
: un nome a tua scelta per i primiOverlayVPNTunnel
.TUNNEL_NAME_2
: un nome a tua scelta per il secondoOverlayVPNTunnel
.PEER_PUBLIC_IP_1
: l'indirizzo IP pubblico di un'interfaccia sul gateway VPN ad alta disponibilità. Hai specificato questa interfaccia durante la creazione del primo tunnel VPN.PEER_PUBLIC_IP_2
: l'indirizzo IP pubblico dell'altra interfaccia sul gateway VPN ad alta disponibilità. Hai specificato questa interfaccia durante la creazione del secondo tunnel VPN.SELF_LOCAL_TUNNEL_IP_1
: l'indirizzo locale rispetto al collegamento da utilizzare nel cluster per le sessioni BGP durante il primo tunnel.SELF_LOCAL_TUNNEL_IP_2
: l'indirizzo locale rispetto al collegamento da utilizzare nel cluster per le sessioni BGP nel secondo tunnel.SELF_PUBLIC_IP
: l'indirizzo IP pubblico per il traffico IPsec/VPN che lascia l'organizzazione. Questo indirizzo potrebbe essere il risultato di un NAT (Network Address Translation).
Crea i due
OverlayVPNTunnels
:kubectl --kubeconfig CLUSTER_KUBECONFIG apply -f overlay-vpn-tunnels.yaml
Controlla lo stato dei tunnel:
kubectl --kubeconfig CLUSTER_KUBECONFIG get OverlayVPNTunnel \ --namespace kube-system --output yaml
Crea due risorse personalizzate OverlayBGPPeer
Per avviare una sessione BGP su ciascun tunnel, crea due risorse OverlayBGPPeer
personalizzate.
Crea un file denominato
overlay-bgp-peers.yaml
con i seguenti dettagli del file manifestOverlayBGPPeer
.apiVersion: networking.gke.io/v1alpha1 kind: OverlayBGPPeer metadata: namespace: "kube-system" name: BGP_PEER_1_NAME spec: localASN: LOCAL_ASN localIP: LOCAL_IP peerIP: PEER_IP_1 peerASN: PEER_ASN vpnTunnel: TUNNEL_1_NAME --- apiVersion: networking.gke.io/v1alpha1 kind: OverlayBGPPeer metadata: namespace: "kube-system" name: BGP_PEER_2_NAME spec: localASN: LOCAL_ASN localIP: LOCAL_IP peerIP: PEER_IP_2 peerASN: PEER_ASN vpnTunnel: TUNNEL_2_NAME
Sostituisci quanto segue:
BGP_PEER_1_NAME
: un nome a tua scelta per il primoOverlayBGPPeer
.BGP_PEER_2_NAME
: un nome a tua scelta per il secondoOverlayBGPPeer
.LOCAL_ASN
: l'ASN da utilizzare nel cluster per le sessioni BGP.LOCAL_IP
: l'indirizzo IP pubblico per il traffico IPsec/VPN che lascia l'organizzazione. Questo indirizzo potrebbe essere il risultato di una Network Address Translation (NAT).PEER_IP_1
: l'indirizzo IP pubblico di un'interfaccia sul gateway VPN ad alta disponibilità. Hai specificato questa interfaccia durante la creazione del primo tunnel VPN.PEER_IP_2
: l'indirizzo IP pubblico dell'altra interfaccia sul gateway VPN ad alta disponibilità. Hai specificato questa interfaccia durante la creazione del secondo tunnel VPN.PEER_ASN
: l'ASN assegnato al router Cloud per le sessioni BGP.TUNNEL_1_NAME
: il nome del primo OverlayVPNTunnel creato in precedenza.TUNNEL_2_NAME
: il nome del secondo OverlayVPNTunnel creato in precedenza.
Crea le
OverlayBGPPeer
risorse personalizzate:kubectl --kubeconfig CLUSTER_KUBECONFIG apply -f overlay-bgp-peers.yaml
Controlla lo stato delle sessioni BGP:
kubectl --kubeconfig CLUSTER_KUBECONFIG get OverlayBGPPeer --namespace kube-system \ --output yaml
Controlla lo stato del Network Connectivity Gateway
L'installazione ha creato una risorsa personalizzata NetworkConnectivityGateway
.
Visualizza la risorsa personalizzata
NetworkConnectivityGateway
:kubectl --kubeconfig CLUSTER_KUBECONFIG get NetworkConnectivityGateway --namespace kube-system \ --output yaml
L'output è simile al seguente. Verifica che vedi
Status: Healthy
:apiVersion: networking.gke.io/v1alpha1 kind: NetworkConnectivityGateway metadata: namespace: kube-system name: default spec: status: CurrNode: worker1-node CreatedTime: 2021-09-07T03:18:15Z LastReportTime: 2021-09-21T23:57:54Z Status: Healthy
Controlla i log Network Connectivity Gateway
Il pod gateway appartiene a un DaemonSet denominato ncgd
, pertanto il nome del pod inizia
con ncgd
.
Per visualizzare i log Network Connectivity Gateway, procedi nel seguente modo:
Trova il nome del pod gateway:
kubectl --kubeconfig CLUSTER_KUBECONFIG pods --namespace kube-system | grep ncgd
Visualizza i log dal pod del gateway:
kubectl --kubeconfig CLUSTER_KUBECONFIG logs GATEWAY_POD --namespace kube-system \ --output yaml
Sostituisci
GATEWAY_POD
con il nome del pod gateway.
Disinstalla
Per disinstallare Network Connectivity Gateway da un cluster:
./bin/ncgctl –-uninstall --kubeconfig CLUSTER_KUBECONFIG
Risoluzione dei problemi
Per suggerimenti per la risoluzione dei problemi relativi al Network Connectivity Gateway, consulta la pagina relativa alla risoluzione dei problemi relativi al gateway della connettività di rete.