Esegui il deployment di una rete hub e spoke utilizzando un bilanciatore del carico come hop successivo

Questo tutorial descrive come utilizzare Peering di rete VPC per il deployment di un'architettura hub e spoke.

Questo tutorial è rivolto a tecnici di rete cloud e professionisti delle operazioni che implementare un'architettura hub e spoke nel proprio ambiente Google Cloud utilizzando appliance centralizzate che comprendono delle macchine virtuali Compute Engine. In questo tutorial, eseguirai il deployment come gateway NAT, ma puoi utilizzare lo stesso approccio come i firewall di nuova generazione. Questo tutorial presuppone che tu avere familiarità con le reti VPC Compute Engine.

Architettura

In questa architettura, di reti VPC spoke che comunicano con l'esterno tramite una rete VPC hub in cui il traffico viene instradato attraverso una un pool centralizzato di appliance, in questo caso Network Address Translation (NAT) gateway VPN ad alta disponibilità. Le route pertinenti vengono esportate dal VPC hub nelle reti VPC dello spoke. I gateway NAT configurati come backend di un bilanciatore del carico con una nuova route predefinita, bilanciatore del carico di rete passthrough interno di Cloud Load Balancing come hop successivo.

Puoi ottenere lo stesso tipo di distribuzione del carico e disponibilità elevata utilizzando più route ECMP (Equal-cost multi-path) i percorsi dei carichi di lavoro. Tuttavia, l'utilizzo del bilanciatore del carico di rete passthrough interno presenta i seguenti vantaggi:

  • Il traffico viene inoltrato alle istanze integre solo quando fai affidamento sull'integrità controlli. Con ECMP, il traffico viene inoltrato a tutte le istanze attive punti del percorso; utilizzando un bilanciatore del carico di rete passthrough interno elimina possibilità di route inutilizzate. Inoltre, non è necessario pulire le route vengono terminate o riavviate.
  • Il failover è potenzialmente più rapido perché è possibile ottimizzare il controllo di integrità timer. Se utilizzi i gruppi di istanze gestite e la riparazione automatica, puoi comunque personalizzare i timer del controllo di integrità, ma sono abituati ricrea l'istanza, non indirizzare il traffico.

Google offre inoltre Cloud NAT come servizio gestito, offrendo disponibilità elevata senza gestione utenti e dell'intervento. Tuttavia, Cloud NAT non è supportato in questo caso d'uso perché La configurazione NAT non viene importata in una rete in peering.

Il seguente diagramma mostra la topologia creata in questo tutorial.

Architettura di una rete VPC hub con due reti VPC spoke.

La topologia è composta da una rete VPC hub e due spoke Reti VPC in peering con il VPC dell'hub utilizzando il peering di rete VPC. VPC hub ha due istanze gateway NAT dietro un bilanciatore del carico di rete passthrough interno. Una route predefinita statica (0/0 NAT-GW-ILB) punta al bilanciatore del carico di rete passthrough interno come hop successivo. Questa route predefinita statica viene esportata il peering di rete VPC mediante route personalizzate.

Obiettivi

  • Crea più reti VPC e gestiscile in peering utilizzando una hub e spoke.
  • Crea e configura gateway NAT nella rete VPC dell'hub.
  • Imposta e configura il bilanciatore del carico di rete passthrough interno come hop successivo.
  • Verifica la connettività dalle reti VPC spoke al pubblico internet.

Costi

In questo documento vengono utilizzati i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi basata sull'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud potrebbero essere idonei per una prova gratuita.

Una volta completate le attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la pagina Pulizia.

Prima di iniziare

  1. Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. Attiva l'API Compute Engine.

    Abilita l'API

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  7. Attiva l'API Compute Engine.

    Abilita l'API

  8. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  9. In questo tutorial vengono eseguiti tutti i comandi da Cloud Shell.

Configurazione dell'ambiente

  1. In Cloud Shell, assicurati di lavorare nella il progetto Google Cloud che hai creato o selezionato. Sostituisci project-id con il tuo progetto Google Cloud.

    gcloud config set project project-id
    
    export PROJECT_ID=`gcloud config list --format="value(core.project)"`
    
  2. Imposta la regione e la zona di computing predefinite.

    gcloud config set compute/region us-central1
    gcloud config set compute/zone us-central1-c
    export REGION=us-central1
    export ZONE=us-central1-c
    

    In questo tutorial, la regione è us-central1 e la zona è us-central1-c.

Creazione di reti e subnet VPC

  1. In Cloud Shell, crea la rete VPC e la subnet dell'hub:

    gcloud compute networks create hub-vpc --subnet-mode custom
    
    gcloud compute networks subnets create hub-subnet1 \
        --network hub-vpc --range 10.0.0.0/24
    
  2. Creare le reti VPC spoke, chiamate spoke1-vpc, spoke2-vpc, con una subnet ciascuna:

    gcloud compute networks create spoke1-vpc --subnet-mode custom
    
    gcloud compute networks create spoke2-vpc --subnet-mode custom
    
    gcloud compute networks subnets create spoke1-subnet1 \
        --network spoke1-vpc --range 192.168.1.0/24
    
    gcloud compute networks subnets create spoke2-subnet1 \
        --network spoke2-vpc --range 192.168.2.0/24
    
  3. Crea regole firewall nella rete VPC dell'hub e nello spoke reti VPC. Queste regole consentono il traffico interno (TCP/80 e 443, UDP/53 e ICMP) dagli intervalli RFC 1918 specificati:

    gcloud compute firewall-rules create hub-vpc-web-ping-dns \
        --network hub-vpc --allow tcp:80,tcp:443,icmp,udp:53 \
        --source-ranges 10.0.0.0/24,192.168.1.0/24,192.168.2.0/24
    
    gcloud compute firewall-rules create spoke1-vpc-web-ping-dns \
        --network spoke1-vpc --allow tcp:80,tcp:443,icmp,udp:53 \
        --source-ranges 10.0.0.0/24,192.168.1.0/24
    
    gcloud compute firewall-rules create spoke2-vpc-web-ping-dns \
        --network spoke2-vpc --allow tcp:80,tcp:443,icmp,udp:53 \
        --source-ranges 10.0.0.0/24,192.168.2.0/24
    
  4. Crea regole firewall nella rete VPC dell'hub e nello spoke reti VPC per consentire IAP per SSH per accedere a tutte le tue macchine virtuali:

    gcloud compute firewall-rules create hub-vpc-iap \
        --network hub-vpc --allow tcp:22 \
        --source-ranges 35.235.240.0/20
    
    gcloud compute firewall-rules create spoke1-vpc-iap \
        --network spoke1-vpc --allow tcp:22 \
        --source-ranges 35.235.240.0/20
    
    gcloud compute firewall-rules create spoke2-vpc-iap \
        --network spoke2-vpc --allow tcp:22 \
        --source-ranges 35.235.240.0/20
    

    Questo tutorial utilizza Identity-Aware Proxy (IAP) per SSH. Per ulteriori informazioni, vedi Connessione a istanze che non hanno indirizzi IP esterni.

  5. Crea una regola firewall per consentire i controlli di integrità per di riparazione automatica dei gruppi di istanze nella rete VPC dell'hub:

    gcloud compute firewall-rules create hub-vpc-health-checks \
        --network hub-vpc --allow tcp:443 --target-tags nat-gw \
        --source-ranges 130.211.0.0/22,35.191.0.0/16
    

Creazione delle istanze e delle route richieste

  1. In Cloud Shell, crea il modello di istanza per il gateway NAT che include uno script di avvio che configura il gateway NAT:

    gcloud compute instance-templates create \
      hub-nat-gw-ilbnhop-template \
      --network hub-vpc \
      --subnet hub-subnet1 \
      --machine-type n1-standard-2 --can-ip-forward \
      --tags nat-gw --scopes default,compute-rw \
      --metadata startup-script='#! /bin/bash
    apt-get update
    # Enable IP forwarding:
    echo 1 > /proc/sys/net/ipv4/ip_forward
    echo "net.ipv4.ip_forward=1" > /etc/sysctl.d/20-example.conf
    # Read VM network configuration:
    md_vm="http://metadata.google.internal/computeMetadata/v1/instance/"
    md_net="$md_vm/network-interfaces"
    nic0_gw="$(curl $md_net/0/gateway -H "Metadata-Flavor:Google")"
    nic0_mask="$(curl $md_net/0/subnetmask -H "Metadata-Flavor:Google")"
    nic0_addr="$(curl $md_net/0/ip -H "Metadata-Flavor:Google")"
    nic0_id="$(ip addr show | grep $nic0_addr | tail -c 5)"
    # Use a web server to pass the health check for this example.
    # In production, use a more complete test.
    sudo apt-get update
    sudo apt-get install apache2 -y
    sudo a2ensite default-ssl
    sudo a2enmod ssl
    echo "Example web page to pass health check" | \
    tee /var/www/html/index.html
    sudo systemctl restart apache2
    # Enable IP masquerading
    iptables -t nat -A POSTROUTING -o $nic0_id -j MASQUERADE'
    

    Questo tutorial utilizza n1-standard-2 come tipo di istanza, ma puoi usare il numero o la dimensione del gateway che desideri. Prendi in considerazione come la larghezza di banda in uscita massima per VM.

  2. Crea un controllo di integrità HTTP:

    gcloud compute health-checks create http nat-gw-ilbnhop-health-check \
        --region us-central1 \
        --port 80
    
  3. Crea un gruppo di istanze regionale con due istanze distribuite in una singola regione:

    gcloud compute instance-groups managed create \
        hub-nat-gw-ilbnhop-mig \
        --region us-central1 --size=2 \
        --template=hub-nat-gw-ilbnhop-template \
        --health-check nat-gw-ilbnhop-health-check \
        --initial-delay 15
    

    In questo tutorial, il ritardo iniziale è impostato su 15 secondi. In un ambiente di produzione deployment, personalizza questa impostazione in base alle tue esigenze. Questo il tutorial non sta usando criteri di scalabilità automatica.

  4. Crea un servizio di backend e aggiungi il gruppo di istanze:

    gcloud compute backend-services create hub-nat-gw-ilbnhop-backend \
        --load-balancing-scheme=internal \
        --protocol=tcp \
        --health-checks=nat-gw-ilbnhop-health-check
    
    gcloud compute backend-services add-backend \
        hub-nat-gw-ilbnhop-backend \
        --instance-group=hub-nat-gw-ilbnhop-mig \
        --instance-group-region=us-central1
    
  5. Crea una regola di forwarding:

    gcloud compute forwarding-rules create \
        hub-nat-gw-ilbnhop \
        --load-balancing-scheme=internal \
        --network=hub-vpc \
        --subnet=hub-subnet1 \
        --address=10.0.0.10 \
        --ip-protocol=TCP \
        --ports=all \
        --backend-service=hub-nat-gw-ilbnhop-backend \
        --backend-service-region=us-central1 \
        --service-label=hub-nat-gw-ilbnhop
    

    Anche se la regola di forwarding viene definita solo con TCP, quando utilizzi il protocollo bilanciatore del carico di rete passthrough interno come hop successivo, la regola di forwarding inoltra tutti traffico a tutte le porte delle VM di backend. Il bilanciatore del carico di rete passthrough interno è un carico regionale con il bilanciatore del carico di rete passthrough esterno regionale.

  6. Crea una nuova route con la regola di forwarding come hop successivo:

    gcloud compute routes create hub-nat-gw-ilbnhop \
        --network=hub-vpc \
        --destination-range=0.0.0.0/0 \
        --next-hop-ilb=hub-nat-gw-ilbnhop \
        --next-hop-ilb-region=us-central1 \
        --priority=800
    

    Puoi specificare i tag di rete in modo che la route dell'hop successivo si applichi solo le istanze client configurate con il tag, ma i tag sono non esportati o importati tramite il peering di rete VPC.

  7. Elimina il percorso predefinito dal VPC hub:

    export hub_default_route=$(gcloud compute routes list \
        --format="value(name)" --filter="network:hub-vpc AND \
        nextHopGateway:default-internet-gateway" | head -n 1)
    gcloud compute routes delete $hub_default_route -q
    
  8. Crea una nuova route con tag per consentire il traffico solo dai gateway NAT:

    gcloud compute routes create hub-default-tagged \
        --network hub-vpc --destination-range 0.0.0.0/0 \
        --next-hop-gateway default-internet-gateway \
        --priority 700 --tags nat-gw
    
  9. Elimina le route predefinite verso internet dal VPC di ogni parlato:

    export spoke1_default_route=$(gcloud compute routes list \
        --format="value(name)" --filter="network:spoke1-vpc AND \
        nextHopGateway:default-internet-gateway")
    
    gcloud compute routes delete $spoke1_default_route -q
    
    export spoke2_default_route=$(gcloud compute routes list \
        --format="value(name)" \
        --filter="network:spoke2-vpc AND nextHopGateway:default-internet-gateway")
    
    gcloud compute routes delete $spoke2_default_route -q
    

    Quando si verifica un conflitto tra le route locali e quelle importate, il valore quelli hanno sempre la precedenza. Per ulteriori informazioni, vedi Ordine di routing.

  10. Crea le VM client:

    gcloud compute instances create spoke1-client \
        --subnet=spoke1-subnet1 --no-address \
        --metadata startup-script='#! /bin/bash
    apt-get update
    apt-get install dnsutils -y'
    
    gcloud compute instances create spoke2-client \
        --subnet=spoke2-subnet1 --no-address \
        --metadata startup-script='#! /bin/bash
    apt-get update
    apt-get install dnsutils -y'
    

Creazione delle connessioni di peering di rete VPC

Il peering di rete VPC è bidirezionale, perciò deve essere definito da entrambe le estremità. Una rete VPC può eseguire il peering con più reti VPC, ma limiti . Per raggiungere la route predefinita sul peering di rete VPC, usa la funzionalità importazione ed esportazione di route personalizzate su peering di rete VPC.

Per questo tutorial, creerai tutte le reti VPC nello stesso progetto Google Cloud.

  1. In Cloud Shell, crea il VPC connessioni dalla rete VPC hub al VPC spoke reti con il flag di esportazione della route abilitato:

    gcloud compute networks peerings create hub-to-spoke1 \
        --network hub-vpc --peer-network spoke1-vpc \
        --peer-project $PROJECT_ID \
        --export-custom-routes
    
    gcloud compute networks peerings create hub-to-spoke2 \
        --network hub-vpc --peer-network spoke2-vpc \
        --peer-project $PROJECT_ID \
        --export-custom-routes
    
  2. Crea una connessione di peering di rete VPC da spoke1 dalla rete VPC alla rete VPC dell'hub con flag di importazione del percorso abilitato:

    gcloud compute networks peerings create spoke1-to-hub \
        --network spoke1-vpc --peer-network hub-vpc \
        --peer-project $PROJECT_ID \
        --import-custom-routes
    
  3. Crea una connessione di peering di rete VPC da spoke2 dalla rete VPC alla rete VPC dell'hub con flag di importazione del percorso abilitato:

    gcloud compute networks peerings create spoke2-to-hub \
        --network spoke2-vpc --peer-network hub-vpc \
        --peer-project $PROJECT_ID \
        --import-custom-routes
    

Verifica della propagazione e della connettività delle route

  1. In Cloud Shell, verifica che le route statiche siano state correttamente creati come parte degli script di avvio.

    gcloud compute routes list --filter="network:hub-vpc"
    

    Assicurati che hub-default-tagged e hub-nat-gw-ilbanhop route sono presenti nell'output:

    NAME                            NETWORK  DEST_RANGE      NEXT_HOP                  PRIORITY
    default-route-13a4b635b5eab48c  hub-vpc  10.0.0.0/24     hub-vpc                   1000
    hub-default-tagged              hub-vpc  0.0.0.0/0       default-internet-gateway  700
    hub-nat-gw-ilbanhop             hub-vpc  0.0.0.0/0       10.0.0.10                 800
    peering-route-3274f1257a9842a0  hub-vpc  192.168.2.0/24  hub-to-spoke2             1000
    peering-route-798c5777f13094bc  hub-vpc  192.168.1.0/24  hub-to-spoke1             1000
    
  2. Verifica la tabella di routing spoke1-vpc per assicurarti che la route predefinita è stata importata correttamente:

    gcloud compute routes list --filter="network:spoke1-vpc"
    

    Assicurati che sia presente un percorso che inizia con peering-route con 0.0.0.0/0 come valore DEST_RANGE nell'output:

    NAME                            NETWORK     DEST_RANGE      NEXT_HOP       PRIORITY
    default-route-75f6ea8f5fc54813  spoke1-vpc  192.168.1.0/24  spoke1-vpc     1000
    peering-route-6c7f130b860bfd39  spoke1-vpc  10.0.0.0/24     spoke1-to-hub  1000
    peering-route-9d44d362f98afbd8  spoke1-vpc  0.0.0.0/0       spoke1-to-hub  800
    
  3. Connettiti a uno dei client mediante SSH IAP:

    gcloud compute ssh spoke1-client --tunnel-through-iap
    
  4. Verifica la connettività testando il DNS pubblico di Google tramite il gateway NAT:

    sudo hping3 -S -p 80 -c 3 dns.google
    

    Poiché il bilanciatore del carico di rete passthrough interno supporta TCP e UDP, verificare la connettività a internet utilizzando un ping basato su ICMP, quindi utilizzare uno strumento come hping3.

    L'output è simile al seguente:

    HPING dns.google (eth0 8.8.4.4): S set, 40 headers + 0 data bytes
    len=44 ip=8.8.4.4 ttl=126 DF id=0 sport=80 flags=SA seq=0 win=65535 rtt=4.6 ms
    len=44 ip=8.8.4.4 ttl=126 DF id=0 sport=80 flags=SA seq=1 win=65535 rtt=4.4 ms
    len=44 ip=8.8.4.4 ttl=126 DF id=0 sport=80 flags=SA seq=2 win=65535 rtt=4.3 ms
    
    --- dns.google hping statistic ---
    3 packets transmitted, 3 packets received, 0% packet loss
    round-trip min/avg/max = 4.3/4.4/4.6 ms
    
  5. Verifica l'indirizzo IP pubblico che utilizzi per comunicare con internet:

    curl ifconfig.co
    

    L'output mostra un indirizzo IP pubblico di uno dei gateway NAT di Compute Engine. Se esegui di nuovo il comando, l'output potrebbe visualizzare un indirizzo IP pubblico diverso perché le connessioni sono distribuite utilizzando il bilanciamento del carico interno configurato affinità sessione (per impostazione predefinita, IP client, protocollo e porta).

    Il peering di rete VPC non è transitivo, quindi non c'è connettività tra le reti VPC spoke tramite il peering di rete VPC.

Considerazioni sull'ambiente di produzione

La configurazione creata in questo tutorial fornisce due gateway NAT in una singola regione. Il bilanciamento del carico ECMP non è perfetto, e un singolo flusso non è distribuito su più link, che è ciò che che vuoi quando usi i dispositivi stateful, firewall di nuova generazione.

Per eseguire il deployment di questa configurazione nell'ambiente di produzione, valuta la possibilità seguenti punti:

  • Questa configurazione è ideale per i messaggi in uscita temporanei o non stateful . Se la dimensione del pool di gateway NAT cambia, le connessioni TCP potrebbero venga ribilanciato, il che potrebbe comportare la reimpostazione della connessione stabilita.
  • I nodi non vengono aggiornati automaticamente, quindi se un'installazione Debian predefinita presenta una vulnerabilità di sicurezza, devi aggiornare l'immagine manualmente.
  • Se hai VM in più zone, devi configurare gateway NAT in ogni regione.
  • La larghezza di banda per gateway può variare in base al tipo di hardware. Assicurati che di considerare fattori come il numero massimo di traffico in uscita per VM Durante un gateway in caso di errore, il traffico viene distribuito ai gateway rimanenti. Poiché l'esecuzione i flussi di lavoro non vengono riprogrammati e il traffico non si ripristina immediatamente di ritorno online. Assicurati quindi di lasciare un overhead sufficiente quando dimensioni.
  • Per ricevere avvisi sui risultati imprevisti, utilizza Cloud Monitoring per monitorare i gruppi di istanze gestite e il traffico di rete.

Esegui la pulizia

Il modo più semplice per eliminare la fatturazione è quello di eliminare il progetto Google Cloud creato per il tutorial. In alternativa, puoi eliminare il singolo Google Cloud.

Elimina il progetto

  1. Nella console Google Cloud, vai alla pagina Gestisci risorse.

    Vai a Gestisci risorse

  2. Nell'elenco dei progetti, seleziona il progetto che vuoi eliminare, quindi fai clic su Elimina.
  3. Nella finestra di dialogo, digita l'ID del progetto e fai clic su Chiudi per eliminare il progetto.

Elimina le singole risorse

Se vuoi conservare il progetto Google Cloud, puoi eliminare le risorse che hai creato per questo tutorial.

  1. Elimina le connessioni di peering di rete VPC:

    gcloud compute networks peerings delete spoke2-to-hub \
        --network spoke2-vpc -q
    
    gcloud compute networks peerings delete spoke1-to-hub \
        --network spoke1-vpc -q
    
    gcloud compute networks peerings delete hub-to-spoke1 \
        --network hub-vpc -q
    
    gcloud compute networks peerings delete hub-to-spoke2 \
        --network hub-vpc -q
    
  2. Elimina le istanze, le risorse, i modelli e le route del bilanciatore del carico:

    gcloud compute instances delete spoke1-client \
      --zone=us-central1-c -q
    
    gcloud compute instances delete spoke2-client \
      --zone=us-central1-c -q
    
    gcloud compute routes delete hub-nat-gw-ilbnhop -q
    
    gcloud compute forwarding-rules delete hub-nat-gw-ilbnhop -q
    
    gcloud compute backend-services delete -q hub-nat-gw-ilbnhop-backend -q
    
    gcloud compute instance-groups managed delete hub-nat-gw-ilbnhop-mig \
      --region us-central1 -q
    
    gcloud compute health-checks delete nat-gw-ilbnhop-health-check -q
    
    gcloud compute instance-templates delete hub-nat-gw-ilbnhop-template -q
    
    gcloud compute routes delete hub-default-tagged -q
    
  3. Elimina le regole firewall, le subnet e le reti VPC:

    gcloud compute firewall-rules delete spoke2-vpc-iap -q
    
    gcloud compute firewall-rules delete spoke2-vpc-web-ping-dns -q
    
    gcloud compute firewall-rules delete spoke1-vpc-iap -q
    
    gcloud compute firewall-rules delete spoke1-vpc-web-ping-dns -q
    
    gcloud compute firewall-rules delete hub-vpc-iap -q
    
    gcloud compute firewall-rules delete hub-vpc-web-ping-dns -q
    
    gcloud compute firewall-rules delete hub-vpc-health-checks -q
    
    gcloud compute networks subnets delete spoke1-subnet1 \
        --region us-central1 -q
    
    gcloud compute networks subnets delete spoke2-subnet1 \
        --region us-central1 -q
    
    gcloud compute networks subnets delete hub-subnet1 \
        --region us-central1 -q
    
    gcloud compute networks delete spoke1-vpc -q
    
    gcloud compute networks delete spoke2-vpc -q
    
    gcloud compute networks delete hub-vpc -q
    

Passaggi successivi