Deployment multi-region di AKS

Topik ini menjelaskan cara menyiapkan deployment multi-region untuk Apigee Hybrid di Microsoft® Azure Kubernetes Service (AKS).

Topologi untuk deployment multi-region mencakup hal berikut:

  • Active-Active: Jika Anda memiliki aplikasi yang di-deploy di beberapa lokasi geografis dan memerlukan respons API latensi rendah untuk deployment Anda. Anda memiliki opsi untuk men-deploy hybrid di beberapa lokasi geografis yang paling dekat dengan klien Anda. Misalnya: Pantai Barat AS, Pantai Timur AS, Eropa, Asia Pasifik (APAC).
  • Active-Passive: Saat Anda memiliki region utama dan region failover atau pemulihan dari bencana (disaster recovery).

Region dalam deployment hybrid multi-region berkomunikasi melalui Cassandra, seperti yang ditampilkan pada gambar berikut:

Prasyarat

Sebelum mengonfigurasi hybrid untuk beberapa region, Anda harus menyelesaikan prasyarat berikut:

  • Ikuti panduan penginstalan hybrid untuk mengetahui prasyarat seperti konfigurasi GCP dan organisasi sebelum beralih ke langkah penyiapan cluster.

Untuk informasi selengkapnya, lihat dokumentasi Kubernetes.

Buat jaringan virtual di setiap region

Buat jaringan virtual untuk deployment multi-region. Misalnya, contoh perintah berikut membuat jaringan di region AS Tengah dan AS Bagian Timur.

Jalankan perintah ini untuk membuat jaringan virtual di region US bagian Timur, dengan nama my-hybrid-rg-vnet:

az network vnet create \
 --name my-hybrid-rg-vnet \
 --location eastus \
 --resource-group my-hybrid-rg \
 --address-prefixes 120.38.1.0/24 \
 --subnet-name my-hybrid-rg-vnet-subnet \
 --subnet-prefix 120.38.1.0/26

Jalankan perintah ini untuk membuat jaringan virtual di region Central US, dengan nama my-hybrid-rg-vnet-ext01:

az network vnet create \
 --name my-hybrid-rg-vnet-ext01 \
 --location centralus \
 --resource-group my-hybrid-rg \
 --address-prefixes 192.138.0.0/24 \
 --subnet-name my-hybrid-rg-vnet-ext01-subnet \
 --subnet-prefix 192.138.0.0/26

Membuat peering jaringan

Membuat peering jaringan antarjaringan virtual.

Mendapatkan ID jaringan virtual

Peering dibuat di antara ID jaringan virtual. Dapatkan ID setiap jaringan virtual dengan perintah az network vnet show dan simpan ID dalam variabel.

Dapatkan ID jaringan virtual pertama, yang bernama my-hybrid-rg-vnet:

vNet1Id=$(az network vnet show \
 --resource-group my-hybrid-rg \
 --name my-hybrid-rg-vnet \
 --query id --out tsv)

Dapatkan ID jaringan virtual kedua, yang bernama my-hybrid-rg-vnet-ext01:

vNet2Id=$(az network vnet show \
 --resource-group my-hybrid-rg \
 --name my-hybrid-rg-vnet-ext01 \
 --query id \
 --out tsv)

Membuat peering dari jaringan virtual pertama ke kedua

Dengan ID jaringan virtual, Anda dapat membuat peering dari netowrk virtual pertama (my-hybrid-rg-vnet) ke yang kedua (my-hybrid-rg-vnet-ext01), seperti ditunjukkan dalam contoh berikut:

az network vnet peering create \
 --name my-hybrid-rg-vnet1-peering \     # The name of the virtual network peering.
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet \         # The virtual network name.
 --remote-vnet $vNet2Id \                # Resource ID of the remote virtual network.
 --allow-vnet-access

Dalam output perintah, perhatikan bahwa peeringState Dimulai. Peering tetap dalam status Dimulai sampai Anda membuat peering dari jaringan virtual kedua kembali ke yang pertama.

{
  ...
  "peeringState": "Initiated",
  ...
}

Membuat peering dari jaringan virtual kedua ke jaringan virtual pertama

Contoh perintah:

az network vnet peering create \
 --name my-hybrid-rg-vnet2-peering \        # The name of the virtual network peering.
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet-ext01 \      # The virtual network name.
 --remote-vnet $vNet1Id \                   # Resource ID of the remote virtual network.
 --allow-vnet-access

Di output perintah, perhatikan bahwa peeringState Terhubung. Azure juga mengubah status peering dari peering jaringan virtual pertama ke kedua menjadi Terhubung.

{
  ...
  "peeringState": "Connected",
  ...
}

Anda juga dapat mengonfirmasi bahwa status peering untuk my-hybrid-rg-vnet1-peering ke my-hybrid-rg-vnet2-peering: peering diubah menjadi Terhubung dengan perintah berikut:

az network vnet peering show \
 --name my-hybrid-rg-vnet1-peering \
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet \
 --query peeringState

Output yang diharapkan:

Connected

Membuat cluster multi-regional

Siapkan cluster Kubernetes di beberapa region dengan blok CIDR yang berbeda. Lihat juga panduan memulai AKS. Gunakan nama lokasi dan jaringan virtual yang Anda buat sebelumnya.

Membuka port Cassandra 7000 dan 7001 antara cluster Kubernetes di semua region (7000 dapat digunakan sebagai opsi cadangan selama pemecahan masalah)

Mengonfigurasi host seed multi-region

Bagian ini menjelaskan cara memperluas cluster Cassandra yang ada ke region baru. Penyiapan ini memungkinkan region baru mem-bootstrap cluster dan menggabungkan pusat data yang ada. Tanpa konfigurasi ini, cluster Kubernetes multi-region tidak akan saling mengetahui.

  1. Tetapkan konteks kubectl ke cluster asli sebelum mengambil nama seed:
    kubectl config use-context original-cluster-name
  2. Jalankan perintah kubectl berikut guna mengidentifikasi alamat host seed untuk Cassandra di region saat ini.

    Alamat host bibit memungkinkan instance regional baru untuk menemukan cluster asli pada saat startup pertama untuk mempelajari topologi cluster. Alamat host seed ditetapkan sebagai titik kontak dalam cluster.

    kubectl get pods -o wide -n apigee | grep apigee-cassandra
    
    apigee-cassandra-0  1/1   Running   0   4d17h   120.38.1.9  aks-agentpool-21207753-vmss000000
    
  3. Tentukan IP mana yang ditampilkan dari perintah sebelumnya yang akan menjadi host seed multi-region. Dalam contoh ini, saat hanya ada satu cluster cassandra node yang berjalan, host seednya adalah 120.38.1.9.
  4. Di pusat data 2, salin file penggantian ke file baru yang namanya menyertakan nama cluster. Misalnya, overrides_your_cluster_name.yaml.
  5. Di pusat data 2, konfigurasikan cassandra.multiRegionSeedHost dan cassandra.datacenter di overrides_your_cluster_name.yaml, dengan multiRegionSeedHost adalah salah satu IP yang ditampilkan oleh perintah sebelumnya:
    cassandra:
      multiRegionSeedHost: seed_host_IP
      datacenter: data_center_name
      rack: rack_name

    Contoh:

    cassandra:
      multiRegionSeedHost: 120.38.1.9
      datacenter: "centralus"
      rack: "ra-1"
  6. Di pusat data/region baru, sebelum Anda menginstal campuran, tetapkan sertifikat dan kredensial TLS yang sama di overrides_your_cluster_name.yaml seperti yang Anda tetapkan di region pertama.

Menyiapkan region baru

Setelah mengonfigurasi host seed, Anda dapat menyiapkan region baru.

Untuk menyiapkan wilayah baru:

  1. Salin sertifikat Anda dari cluster yang ada ke cluster baru. Root CA baru digunakan oleh Cassandra dan komponen hybrid lainnya untuk mTLS. Oleh karena itu, sangat penting untuk memiliki sertifikat yang konsisten di seluruh cluster.
    1. Tetapkan konteks ke namespace asli:
      kubectl config use-context original-cluster-name
    2. Ekspor konfigurasi namespace saat ini ke file:
      $ kubectl get namespace  -o yaml > apigee-namespace.yaml
    3. Ekspor rahasia apigee-ca ke file:
      kubectl -n cert-manager get secret apigee-ca -o yaml > apigee-ca.yaml
    4. Tetapkan konteks ke nama cluster region baru:
      kubectl config use-context new-cluster-name
    5. Impor konfigurasi namespace ke cluster baru. Pastikan untuk memperbarui "namespace" dalam file jika Anda menggunakan namespace berbeda di region baru:
      kubectl apply -f apigee-namespace.yaml
    6. Impor rahasia ke cluster baru:

      kubectl -n cert-manager apply -f apigee-ca.yaml
  2. Menginstal hybrid di region baru. Pastikan bahwa file overrides_your_cluster_name.yaml menyertakan sertifikat TLS yang sama dengan yang dikonfigurasi di region pertama, seperti yang dijelaskan di bagian sebelumnya.

    Jalankan dua perintah berikut untuk menginstal hybrid di region baru:

    apigeectl init -f overrides_your_cluster_name.yaml
    apigeectl apply -f overrides_your_cluster_name.yaml
  3. Luaskan semua keyspace apigee.

    Langkah berikut akan memperluas data Cassandra ke pusat data baru:

    1. Buka shell di pod Cassandra:
      kubectl run -i --tty --restart=Never --rm --image google/apigee-hybrid-cassandra-client:1.0.0 cqlsh
    2. Hubungkan ke server Cassandra:
      cqlsh apigee-cassandra-0.apigee-cassandra.apigee.svc.cluster.local -u ddl_user --ssl
      Password:
      
      Connected to apigeecluster at apigee-cassandra-0.apigee-cassandra.apigee.svc.cluster.local:9042.
      [cqlsh 5.0.1 | Cassandra 3.11.3 | CQL spec 3.4.4 | Native protocol v4]
      Use HELP for help.
    3. Mendapatkan keyspace yang tersedia:
      SELECT * from system_schema.keyspaces ;
       keyspace_name              | durable_writes | replication
      ----------------------------+----------------+--------------------------------------------------------------------------------------------------------
                      system_auth |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                    system_schema |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
       cache_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
         kms_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
         kvm_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
               system_distributed |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                           system |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
                           perses |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
       quota_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
                    system_traces |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
      
      (10 rows)
    4. Update/luaskan keyspace apigee:
      ALTER KEYSPACE cache_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE kms_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE kvm_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE perses WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE quota_hybrid_test_7_hybrid  WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
    5. Validasi perluasan keyspace:
      SELECT * from system_schema.keyspaces ;
       keyspace_name              | durable_writes | replication
      ----------------------------+----------------+--------------------------------------------------------------------------------------------------------
                      system_auth |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                    system_schema |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
       cache_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
         kms_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
         kvm_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
               system_distributed |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                           system |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
                           perses |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
       quota_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
                    system_traces |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
      
      (10 rows)
      ddl@cqlsh>
  4. Jalankan nodetool rebuild secara berurutan pada semua node di pusat data baru. Proses ini mungkin memerlukan waktu beberapa menit hingga beberapa jam, bergantung pada ukuran datanya.
    kubectl exec apigee-cassandra-0 -n apigee  -- nodetool rebuild -- dc-1
  5. Verifikasi proses build ulang dari log. Selain itu, verifikasi ukuran data menggunakan perintah nodetool status:
    kubectl logs apigee-cassandra-0 -f -n apigee

    Contoh berikut menunjukkan contoh entri log:

    INFO  01:42:24 rebuild from dc: dc-1, (All keyspaces), (All tokens)
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Executing streaming plan for Rebuild
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.432KiB), sending 0 files(0.000KiB)
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.1.45 is complete
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.693KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.4.36 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 3 files(0.720KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.5.22 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] All sessions completed
  6. Memperbarui host seed. Hapus multiRegionSeedHost: 10.0.0.11 dari overrides-DC_name.yaml dan ajukan permohonan kembali.
    apigeectl apply -f overrides-DC_name.yaml