Deployment multiregionale su AKS

Questo argomento spiega come configurare un deployment multiregionale per Apigee hybrid su Microsoft® Servizio Azure Kubernetes (AKS).

Le topologie per il deployment in più regioni includono quanto segue:

  • Attivo-Attivo: quando è stato eseguito il deployment delle applicazioni in più aree geografiche da più località e hai bisogno di una risposta API a bassa latenza per i tuoi deployment. Puoi eseguire il deployment di ambienti ibridi dalle sedi più vicine ai tuoi clienti. Ad esempio: costa occidentale degli Stati Uniti, costa orientale degli Stati Uniti, Europa, APAC.
  • Attivo-passivo: in presenza di una regione principale e di un failover o un'emergenza regione di ripristino.

Le regioni in un deployment ibrido multiregionale comunicano tramite Cassandra, come nell'immagine seguente mostra:

Prerequisiti

Prima di configurare il servizio ibrido per più regioni, devi completare i seguenti prerequisiti:

  • Segui l'installazione ibrida guida per eventuali prerequisiti, come Google Cloud e la configurazione dell'organizzazione prima di andare ai passaggi di configurazione del cluster.

Per informazioni dettagliate, consulta la documentazione di Kubernetes.

Crea una rete virtuale in ogni regione

Creare una rete virtuale per il deployment multiregionale. Ad esempio, I seguenti comandi di esempio creano reti nelle regioni degli Stati Uniti centrali e degli Stati Uniti orientali.

Esegui questo comando per creare una rete virtuale nella regione degli Stati Uniti orientali, con nome my-hybrid-rg-vnet:

az network vnet create \
 --name my-hybrid-rg-vnet \
 --location eastus \
 --resource-group my-hybrid-rg \
 --address-prefixes 120.38.1.0/24 \
 --subnet-name my-hybrid-rg-vnet-subnet \
 --subnet-prefix 120.38.1.0/26

Esegui questo comando per creare una rete virtuale nella regione degli Stati Uniti centrali, con nome my-hybrid-rg-vnet-ext01:

az network vnet create \
 --name my-hybrid-rg-vnet-ext01 \
 --location centralus \
 --resource-group my-hybrid-rg \
 --address-prefixes 192.138.0.0/24 \
 --subnet-name my-hybrid-rg-vnet-ext01-subnet \
 --subnet-prefix 192.138.0.0/26

Crea peering di rete

Creare un peering di rete tra le reti virtuali.

Recuperare gli ID delle reti virtuali

I peering vengono stabiliti tra ID rete virtuali. Recupera l'ID di ogni rete virtuale con az network vnet show e memorizza l'ID in una variabile.

Recupera l'ID della prima rete virtuale, quella denominata my-hybrid-rg-vnet:

vNet1Id=$(az network vnet show \
 --resource-group my-hybrid-rg \
 --name my-hybrid-rg-vnet \
 --query id --out tsv)

Recupera l'ID della seconda rete virtuale, quella denominata my-hybrid-rg-vnet-ext01:

vNet2Id=$(az network vnet show \
 --resource-group my-hybrid-rg \
 --name my-hybrid-rg-vnet-ext01 \
 --query id \
 --out tsv)

Crea il peering dalla prima alla seconda rete virtuale

Con gli ID rete virtuale, puoi creare un peering dalla prima istanza rete (my-hybrid-rg-vnet) al secondo (my-hybrid-rg-vnet-ext01), come mostrato nei seguenti esempi:

az network vnet peering create \
 --name my-hybrid-rg-vnet1-peering \     # The name of the virtual network peering.
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet \         # The virtual network name.
 --remote-vnet $vNet2Id \                # Resource ID of the remote virtual network.
 --allow-vnet-access

Nell'output del comando, nota che peeringState è stato iniziato. Il peering rimane in stato Iniziato fino a quando non viene creato il peering dal secondo alla prima rete virtuale.

{
  ...
  "peeringState": "Initiated",
  ...
}

Crea un peering dalla seconda rete virtuale alla prima

Comando di esempio:

az network vnet peering create \
 --name my-hybrid-rg-vnet2-peering \        # The name of the virtual network peering.
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet-ext01 \      # The virtual network name.
 --remote-vnet $vNet1Id \                   # Resource ID of the remote virtual network.
 --allow-vnet-access

Nell'output del comando, nota che peeringState è Connesso. Azzurro cambia anche stato di peering del primo al secondo peering di rete virtuale su Connesso.

{
  ...
  "peeringState": "Connected",
  ...
}

Puoi anche confermare che lo stato di peering per my-hybrid-rg-vnet1-peering my-hybrid-rg-vnet2-peering: il peering è stato modificato in Connesso con il comando seguente:

az network vnet peering show \
 --name my-hybrid-rg-vnet1-peering \
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet \
 --query peeringState

Output previsto:

Connected

Crea cluster multiregionali

Configurare cluster Kubernetes in più regioni con blocchi CIDR diversi. Consulta anche la guida rapida di AKS. Utilizza la di località e nomi di reti virtuali creati in precedenza.

Apri le porte Cassandra 7000 e 7001 tra i cluster Kubernetes in tutte le regioni (7000 potrebbe essere utilizzata come opzione di backup durante la risoluzione dei problemi)

Configura l'host seed per più regioni

Questa sezione descrive come espandere il cluster Cassandra esistente a una nuova regione. Questa configurazione consente alla nuova regione di eseguire il bootstrap del cluster e di unire la regione esistente data center. Senza questa configurazione, i cluster Kubernetes multiregionali che non conoscerebbero.

  1. Imposta il contesto kubectl sul cluster originale prima di recuperare il nome seed:
    kubectl config use-context original-cluster-name
  2. Esegui questo comando kubectl per identificare un indirizzo host di origine per Cassandra in la regione corrente.

    Un indirizzo host di origine consente a una nuova istanza regionale di trovare originale alla primissima startup a scoprire la topologia del cluster. L'indirizzo host di origine è designato come punto di contatto nel cluster.

    kubectl get pods -o wide -n apigee | grep apigee-cassandra
    
    apigee-cassandra-0  1/1   Running   0   4d17h   120.38.1.9  aks-agentpool-21207753-vmss000000
    
  3. Decidi quale IP restituito dal comando precedente sarà il seed multiregionale . In questo esempio, in cui è in esecuzione un solo cluster Cassandra a nodo, l'host di origine è 120.38.1.9.
  4. Nel data center 2, copia il file degli override in un nuovo file il cui nome include il cluster . Ad esempio, overrides_your_cluster_name.yaml.
  5. Nel data center 2, configura cassandra.multiRegionSeedHost e cassandra.datacenter a overrides_your_cluster_name.yaml, dove multiRegionSeedHost è uno degli IP restituiti dal comando precedente:
    cassandra:
      multiRegionSeedHost: seed_host_IP
      datacenter: data_center_name
      rack: rack_name

    Ad esempio:

    cassandra:
      multiRegionSeedHost: 120.38.1.9
      datacenter: "centralus"
      rack: "ra-1"
  6. Nel nuovo data center/nella nuova regione, prima di installare l'ibrido, imposta gli stessi certificati TLS e credenziali in overrides_your_cluster_name.yaml impostate nella prima regione.

Configura la nuova regione

Dopo aver configurato l'host di origine, puoi configurare la nuova regione.

Per configurare la nuova regione:

  1. Copia il tuo certificato dal cluster esistente a quello nuovo. La nuova radice dell'autorità di certificazione è utilizzata da Cassandra e da altri componenti ibridi per mTLS. Pertanto, è essenziale avere coerenti in tutto il cluster.
    1. Imposta il contesto sullo spazio dei nomi originale:
      kubectl config use-context original-cluster-name
    2. Esporta la configurazione attuale dello spazio dei nomi in un file:
      $ kubectl get namespace  -o yaml > apigee-namespace.yaml
    3. Esporta il secret apigee-ca in un file:
      kubectl -n cert-manager get secret apigee-ca -o yaml > apigee-ca.yaml
    4. Imposta il contesto sul nome del cluster della nuova regione:
      kubectl config use-context new-cluster-name
    5. Importa la configurazione dello spazio dei nomi nel nuovo cluster. Assicurati di aggiornare lo "spazio dei nomi" nel file se utilizzi uno spazio dei nomi diverso nella nuova regione:
      kubectl apply -f apigee-namespace.yaml
    6. Importa il secret nel nuovo cluster:

      kubectl -n cert-manager apply -f apigee-ca.yaml
  2. Installa il modello ibrido nella nuova regione. Assicurati che overrides_your_cluster_name.yaml include gli stessi certificati TLS configurati nella prima regione, come spiegate nella sezione precedente.

    Esegui questi due comandi per installare il modello ibrido nella nuova regione:

    apigeectl init -f overrides_your_cluster_name.yaml
    apigeectl apply -f overrides_your_cluster_name.yaml
  3. Espandi tutti gli spazi delle chiavi apigee.

    I passaggi seguenti consentono di espandere i dati di Cassandra nel nuovo data center:

    1. Apri una shell nel pod Cassandra:
      kubectl run -i --tty --restart=Never --rm --image google/apigee-hybrid-cassandra-client:1.0.0 cqlsh
    2. Connettiti al server Cassandra:
      cqlsh apigee-cassandra-0.apigee-cassandra.apigee.svc.cluster.local -u ddl_user --ssl
      Password:
      
      Connected to apigeecluster at apigee-cassandra-0.apigee-cassandra.apigee.svc.cluster.local:9042.
      [cqlsh 5.0.1 | Cassandra 3.11.3 | CQL spec 3.4.4 | Native protocol v4]
      Use HELP for help.
    3. Ottieni gli spazi delle chiavi disponibili:
      SELECT * from system_schema.keyspaces ;
       keyspace_name              | durable_writes | replication
      ----------------------------+----------------+--------------------------------------------------------------------------------------------------------
                      system_auth |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                    system_schema |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
       cache_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
         kms_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
         kvm_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
               system_distributed |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                           system |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
                           perses |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
       quota_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
                    system_traces |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
      
      (10 rows)
    4. Aggiorna/espandi gli spazi delle chiavi apigee:
      ALTER KEYSPACE cache_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE kms_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE kvm_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE perses WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE quota_hybrid_test_7_hybrid  WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
    5. Convalida l'espansione dello spazio delle chiavi:
      SELECT * from system_schema.keyspaces ;
       keyspace_name              | durable_writes | replication
      ----------------------------+----------------+--------------------------------------------------------------------------------------------------------
                      system_auth |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                    system_schema |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
       cache_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
         kms_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
         kvm_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
               system_distributed |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                           system |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
                           perses |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
       quota_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
                    system_traces |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
      
      (10 rows)
      ddl@cqlsh>
  4. Esegui nodetool rebuild in sequenza su tutti i nodi del nuovo data center. Questo può richiedere da pochi minuti ad alcune ore, a seconda delle dimensioni dei dati.
    kubectl exec apigee-cassandra-0 -n apigee  -- nodetool rebuild -- dc-1
  5. Verifica i processi di ricreazione dai log. Verifica inoltre le dimensioni dei dati utilizzando il comando nodetool status:
    kubectl logs apigee-cassandra-0 -f -n apigee

    L'esempio seguente mostra esempi di voci di log:

    INFO  01:42:24 rebuild from dc: dc-1, (All keyspaces), (All tokens)
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Executing streaming plan for Rebuild
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.432KiB), sending 0 files(0.000KiB)
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.1.45 is complete
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.693KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.4.36 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 3 files(0.720KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.5.22 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] All sessions completed
  6. Aggiorna gli host di origine. Rimuovi multiRegionSeedHost: 10.0.0.11 da overrides-DC_name.yaml e invia di nuovo la richiesta.
    apigeectl apply -f overrides-DC_name.yaml