Deployment multi-region di AKS

Topik ini menjelaskan cara menyiapkan deployment multi-region untuk Apigee Hybrid di Microsoft® Azure Kubernetes Service (AKS).

Topologi untuk deployment multi-region mencakup hal berikut:

  • Aktif-Aktif: Saat Anda memiliki aplikasi yang di-deploy di beberapa lokasi geografis lokasi dan Anda memerlukan respons API latensi rendah untuk deployment Anda. Anda memiliki opsi untuk men-deploy hybrid di berbagai lokasi geografis yang paling dekat dengan klien Anda. Misalnya: Pantai Barat AS, Pantai Timur AS, Eropa, APAC.
  • Aktif-Pasif: Saat Anda memiliki region utama dan failover atau bencana di region pemulihan.

Region dalam deployment hybrid multi-region berkomunikasi melalui Cassandra, seperti dalam gambar berikut menampilkan:

Prasyarat

Sebelum mengonfigurasi hybrid untuk beberapa region, Anda harus menyelesaikan prasyarat berikut:

  • Ikuti penginstalan hybrid untuk prasyarat seperti konfigurasi organisasi dan GCP sebelum melanjutkan ke langkah penyiapan cluster.

Untuk informasi selengkapnya, lihat dokumentasi Kubernetes.

Membuat jaringan virtual di setiap region

Buat jaringan virtual untuk deployment multi-region. Misalnya, contoh perintah berikut akan membuat jaringan di region AS Bagian Tengah dan AS Timur.

Jalankan perintah ini untuk membuat jaringan virtual di region AS Bagian Timur, dengan nama my-hybrid-rg-vnet:

az network vnet create \
 --name my-hybrid-rg-vnet \
 --location eastus \
 --resource-group my-hybrid-rg \
 --address-prefixes 120.38.1.0/24 \
 --subnet-name my-hybrid-rg-vnet-subnet \
 --subnet-prefix 120.38.1.0/26

Jalankan perintah ini untuk membuat jaringan virtual di region AS Tengah, dengan nama my-hybrid-rg-vnet-ext01:

az network vnet create \
 --name my-hybrid-rg-vnet-ext01 \
 --location centralus \
 --resource-group my-hybrid-rg \
 --address-prefixes 192.138.0.0/24 \
 --subnet-name my-hybrid-rg-vnet-ext01-subnet \
 --subnet-prefix 192.138.0.0/26

Membuat peering jaringan

Membuat peering jaringan antarjaringan virtual.

Mendapatkan ID jaringan virtual

Peering dibuat di antara ID jaringan virtual. Dapatkan ID setiap jaringan virtual dengan az network vnet show dan menyimpan ID dalam variabel.

Dapatkan ID jaringan virtual pertama, yang bernama my-hybrid-rg-vnet:

vNet1Id=$(az network vnet show \
 --resource-group my-hybrid-rg \
 --name my-hybrid-rg-vnet \
 --query id --out tsv)

Dapatkan ID jaringan virtual kedua, yang bernama my-hybrid-rg-vnet-ext01:

vNet2Id=$(az network vnet show \
 --resource-group my-hybrid-rg \
 --name my-hybrid-rg-vnet-ext01 \
 --query id \
 --out tsv)

Membuat peering dari jaringan virtual pertama ke kedua

Dengan ID jaringan virtual, Anda bisa membuat peering dari jaringan netowrk (my-hybrid-rg-vnet) ke detik (my-hybrid-rg-vnet-ext01), seperti yang ditunjukkan dalam contoh berikut:

az network vnet peering create \
 --name my-hybrid-rg-vnet1-peering \     # The name of the virtual network peering.
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet \         # The virtual network name.
 --remote-vnet $vNet2Id \                # Resource ID of the remote virtual network.
 --allow-vnet-access

Pada output perintah, perhatikan bahwa peeringState Startingd. Peering akan tetap berada dalam status Dimulai sampai Anda membuat peering dari jaringan virtual kembali ke yang pertama.

{
  ...
  "peeringState": "Initiated",
  ...
}

Membuat peering dari jaringan virtual kedua ke jaringan pertama

Contoh perintah:

az network vnet peering create \
 --name my-hybrid-rg-vnet2-peering \        # The name of the virtual network peering.
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet-ext01 \      # The virtual network name.
 --remote-vnet $vNet1Id \                   # Resource ID of the remote virtual network.
 --allow-vnet-access

Pada output perintah, perhatikan bahwa peeringState Terhubung. Azure juga mengubah status peering dari peering jaringan virtual pertama ke kedua ke Terhubung.

{
  ...
  "peeringState": "Connected",
  ...
}

Anda juga dapat mengonfirmasi bahwa status peering untuk my-hybrid-rg-vnet1-peering my-hybrid-rg-vnet2-peering: peering diubah menjadi Terhubung dengan perintah berikut:

az network vnet peering show \
 --name my-hybrid-rg-vnet1-peering \
 --resource-group my-hybrid-rg \
 --vnet-name my-hybrid-rg-vnet \
 --query peeringState

Output yang diharapkan:

Connected

Membuat cluster multi-regional

Siapkan cluster Kubernetes di beberapa region dengan blok CIDR yang berbeda. Lihat juga panduan memulai AKS. Gunakan lokasi dan nama jaringan virtual yang telah Anda buat sebelumnya.

Membuka port Cassandra 7000 dan 7001 antar-cluster Kubernetes di semua region (7000 dapat digunakan sebagai opsi cadangan selama pemecahan masalah)

Mengonfigurasi host seed multi-region

Bagian ini menjelaskan cara memperluas cluster Cassandra yang ada ke region baru. Penyiapan ini memungkinkan region baru untuk mem-bootstrap cluster dan bergabung dengan cluster yang ada pusat data. Tanpa konfigurasi ini, cluster Kubernetes multi-region tidak akan tahu satu sama lain.

  1. Tetapkan konteks kubectl ke cluster asli sebelum mengambil nama seed:
    kubectl config use-context original-cluster-name
  2. Jalankan perintah kubectl berikut guna mengidentifikasi alamat host awal untuk Cassandra di region saat ini.

    Alamat host bibit memungkinkan instance regional baru untuk menemukan cluster asli pada startup pertama yang mempelajari topologi cluster. Alamat host inti ditetapkan sebagai titik kontak dalam cluster.

    kubectl get pods -o wide -n apigee | grep apigee-cassandra
    
    apigee-cassandra-0  1/1   Running   0   4d17h   120.38.1.9  aks-agentpool-21207753-vmss000000
    
  3. Tentukan IP mana yang ditampilkan dari perintah sebelumnya yang akan menjadi seed multi-region {i>host<i}. Di contoh ini, ketika hanya ada satu cluster node cassandra yang berjalan, seed host adalah 120.38.1.9.
  4. Di pusat data 2, salin file pengganti Anda ke file baru yang namanya menyertakan cluster nama. Misalnya, overrides_your_cluster_name.yaml.
  5. Di pusat data 2, konfigurasi cassandra.multiRegionSeedHost dan cassandra.datacenter di overrides_your_cluster_name.yaml, dengan multiRegionSeedHost adalah salah satu IP yang dikembalikan oleh perintah sebelumnya:
    cassandra:
      multiRegionSeedHost: seed_host_IP
      datacenter: data_center_name
      rack: rack_name

    Contoh:

    cassandra:
      multiRegionSeedHost: 120.38.1.9
      datacenter: "centralus"
      rack: "ra-1"
  6. Di pusat data/region baru, sebelum menginstal hybrid, setel sertifikat TLS yang sama dan kredensial di overrides_your_cluster_name.yaml seperti yang Anda tetapkan di region pertama.

Menyiapkan wilayah baru

Setelah mengonfigurasi host inti, Anda dapat menyiapkan region baru.

Untuk menyiapkan wilayah baru:

  1. Salin sertifikat Anda dari cluster yang ada ke cluster baru. Root CA yang baru adalah digunakan oleh Cassandra dan komponen hibrida lainnya untuk mTLS. Oleh karena itu, penting untuk memiliki sertifikat yang konsisten di seluruh cluster.
    1. Tetapkan konteks ke namespace asli:
      kubectl config use-context original-cluster-name
    2. Ekspor konfigurasi namespace saat ini ke sebuah file:
      $ kubectl get namespace  -o yaml > apigee-namespace.yaml
    3. Ekspor rahasia apigee-ca ke file:
      kubectl -n cert-manager get secret apigee-ca -o yaml > apigee-ca.yaml
    4. Tetapkan konteks ke nama cluster region baru:
      kubectl config use-context new-cluster-name
    5. Impor konfigurasi namespace ke cluster baru. Pastikan untuk memperbarui "namespace" pada file jika menggunakan namespace yang berbeda di wilayah baru:
      kubectl apply -f apigee-namespace.yaml
    6. Impor rahasia ke cluster baru:

      kubectl -n cert-manager apply -f apigee-ca.yaml
  2. Instal hybrid di region baru. Pastikan bahwa overrides_your_cluster_name.yaml menyertakan sertifikat TLS yang sama yang dikonfigurasi di region pertama, seperti yang dijelaskan di bagian sebelumnya.

    Jalankan dua perintah berikut untuk menginstal hybrid di region baru:

    apigeectl init -f overrides_your_cluster_name.yaml
    apigeectl apply -f overrides_your_cluster_name.yaml
  3. Luaskan semua keyspace apigee.

    Langkah-langkah berikut akan memperluas data Cassandra ke pusat data baru:

    1. Buka shell di pod Cassandra:
      kubectl run -i --tty --restart=Never --rm --image google/apigee-hybrid-cassandra-client:1.0.0 cqlsh
    2. Hubungkan ke server Cassandra:
      cqlsh apigee-cassandra-0.apigee-cassandra.apigee.svc.cluster.local -u ddl_user --ssl
      Password:
      
      Connected to apigeecluster at apigee-cassandra-0.apigee-cassandra.apigee.svc.cluster.local:9042.
      [cqlsh 5.0.1 | Cassandra 3.11.3 | CQL spec 3.4.4 | Native protocol v4]
      Use HELP for help.
    3. Dapatkan keyspace yang tersedia:
      SELECT * from system_schema.keyspaces ;
       keyspace_name              | durable_writes | replication
      ----------------------------+----------------+--------------------------------------------------------------------------------------------------------
                      system_auth |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                    system_schema |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
       cache_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
         kms_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
         kvm_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
               system_distributed |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                           system |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
                           perses |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
       quota_hybrid_test_7_hybrid |           True |                  {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3'}
                    system_traces |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
      
      (10 rows)
    4. Perbarui/luaskan keyspace apigee:
      ALTER KEYSPACE cache_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE kms_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE kvm_hybrid_test_7_hybrid WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE perses WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
      ALTER KEYSPACE quota_hybrid_test_7_hybrid  WITH replication = {'class': 'NetworkTopologyStrategy', 'dc-1':3, 'dc-2':3};
    5. Validasi perluasan keyspace:
      SELECT * from system_schema.keyspaces ;
       keyspace_name              | durable_writes | replication
      ----------------------------+----------------+--------------------------------------------------------------------------------------------------------
                      system_auth |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                    system_schema |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
       cache_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
         kms_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
         kvm_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
               system_distributed |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
                           system |           True |                                                {'class': 'org.apache.cassandra.locator.LocalStrategy'}
                           perses |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
       quota_hybrid_test_7_hybrid |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '3', 'dc-2': '3'}
                    system_traces |           True | {'class': 'org.apache.cassandra.locator.NetworkTopologyStrategy', 'dc-1': '1', 'dc-2': '1'}
      
      (10 rows)
      ddl@cqlsh>
  4. Jalankan nodetool rebuild secara berurutan pada semua node di pusat data baru. Hal ini mungkin membutuhkan waktu beberapa menit hingga beberapa jam tergantung pada ukuran data.
    kubectl exec apigee-cassandra-0 -n apigee  -- nodetool rebuild -- dc-1
  5. Verifikasi proses build ulang dari log. Juga, verifikasi ukuran data menggunakan perintah nodetool status:
    kubectl logs apigee-cassandra-0 -f -n apigee

    Contoh berikut menunjukkan contoh entri log:

    INFO  01:42:24 rebuild from dc: dc-1, (All keyspaces), (All tokens)
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Executing streaming plan for Rebuild
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.432KiB), sending 0 files(0.000KiB)
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.1.45 is complete
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.693KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.4.36 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 3 files(0.720KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.5.22 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] All sessions completed
  6. Memperbarui host seed. Hapus multiRegionSeedHost: 10.0.0.11 dari overrides-DC_name.yaml dan ajukan permohonan kembali.
    apigeectl apply -f overrides-DC_name.yaml