Cloud Service Mesh dengan contoh: deployment canary


Dalam tutorial ini, Anda akan mempelajari kasus penggunaan umum: meluncurkan deployment canary dengan Cloud Service Mesh menggunakan Istio API.

Apa yang dimaksud dengan deployment canary?

Deployment canary merutekan sebagian kecil traffic ke versi baru microservice, lalu secara bertahap meningkatkan persentase tersebut sambil menghentikan dan menghentikan versi lama. Jika terjadi masalah selama proses ini, traffic dapat dialihkan kembali ke versi sebelumnya. Dengan Cloud Service Mesh, Anda dapat me-rutekan traffic untuk memastikan bahwa layanan baru diperkenalkan dengan aman.

Biaya

Dalam dokumen ini, Anda akan menggunakan komponen Google Cloud yang dapat ditagih berikut:

Untuk membuat perkiraan biaya berdasarkan proyeksi penggunaan Anda, gunakan kalkulator harga. Pengguna baru Google Cloud mungkin memenuhi syarat untuk mendapatkan uji coba gratis.

Setelah menyelesaikan tutorial ini, Anda dapat menghindari biaya berkelanjutan dengan menghapus resource yang Anda buat. Untuk informasi selengkapnya, lihat Pembersihan.

Sebelum memulai

Men-deploy Online Boutique

  1. Tetapkan konteks saat ini untuk kubectl ke cluster tempat Anda berencana untuk men-deploy Butik Online. Perintah ini bergantung pada apakah Anda menyediakan Cloud Service Mesh di cluster GKE atau cluster Kubernetes di luar GKE:

    GKE di Google Cloud

    gcloud container clusters get-credentials CLUSTER_NAME  \
        --project=PROJECT_ID \
        --zone=CLUSTER_LOCATION 
    

    GKE di luar Google Cloud

    kubectl config use-context CLUSTER_NAME 
    
  2. Buat namespace untuk aplikasi contoh dan gateway masuk:

    kubectl create namespace onlineboutique
    
  3. Beri label pada namespace onlineboutique untuk otomatis memasukkan proxy Envoy. Ikuti langkah-langkah tentang cara mengaktifkan injeksi sidecar otomatis.

  4. Deploy aplikasi contoh. Untuk tutorial ini, Anda akan men-deploy Online Boutique, aplikasi demo microservice.

    kubectl apply \
    -n onlineboutique \
    -f https://raw.githubusercontent.com/GoogleCloudPlatform/anthos-service-mesh-samples/main/docs/shared/online-boutique/kubernetes-manifests.yaml
    
  5. Tambahkan label version=v1 ke deployment productcatalog dengan menjalankan perintah berikut:

    kubectl patch deployments/productcatalogservice -p '{"spec":{"template":{"metadata":{"labels":{"version":"v1"}}}}}' \
    -n onlineboutique
    

    Lihat layanan yang Anda deploy:

    kubectl get pods -n onlineboutique
    

    Output yang diharapkan:

    NAME                                     READY   STATUS    RESTARTS   AGE
    adservice-85598d856b-m84m6               2/2     Running   0          2m7s
    cartservice-c77f6b866-m67vd              2/2     Running   0          2m8s
    checkoutservice-654c47f4b6-hqtqr         2/2     Running   0          2m10s
    currencyservice-59bc889674-jhk8z         2/2     Running   0          2m8s
    emailservice-5b9fff7cb8-8nqwz            2/2     Running   0          2m10s
    frontend-77b88cc7cb-mr4rp                2/2     Running   0          2m9s
    loadgenerator-6958f5bc8b-55q7w           2/2     Running   0          2m8s
    paymentservice-68dd9755bb-2jmb7          2/2     Running   0          2m9s
    productcatalogservice-84f95c95ff-c5kl6   2/2     Running   0          114s
    recommendationservice-64dc9dfbc8-xfs2t   2/2     Running   0          2m9s
    redis-cart-5b569cd47-cc2qd               2/2     Running   0          2m7s
    shippingservice-5488d5b6cb-lfhtt         2/2     Running   0          2m7s
    

    2/2 di kolom READY menunjukkan bahwa pod sudah aktif dan berjalan dengan proxy Envoy yang berhasil dimasukkan.

  6. Deploy VirtualService dan DestinationRule untuk v1 productcatalog:

     kubectl apply -f destination-vs-v1.yaml -n onlineboutique
    
    apiVersion: networking.istio.io/v1beta1
    kind: DestinationRule
    metadata:
      name: productcatalogservice
    spec:
      host: productcatalogservice
      subsets:
      - labels:
          version: v1
        name: v1
    ---
    apiVersion: networking.istio.io/v1beta1
    kind: VirtualService
    metadata:
      name: productcatalogservice
    spec:
      hosts:
      - productcatalogservice
      http:
      - route:
        - destination:
            host: productcatalogservice
            subset: v1

    Perhatikan bahwa hanya v1 yang ada dalam resource.

  7. Buka aplikasi di browser menggunakan alamat IP eksternal gateway ingress Anda:

    kubectl get services -n GATEWAY_NAMESPACE
    

Bagian berikutnya akan menjelajahi UI Cloud Service Mesh dan menunjukkan cara melihat metrik.

Melihat layanan Anda di konsol Google Cloud

  1. Di konsol Google Cloud, buka halaman Layanan edisi Enterprise Google Kubernetes Engine (GKE).

    Buka Layanan edisi Enterprise Google Kubernetes Engine (GKE)

  2. Secara default, Anda melihat layanan di tampilan Daftar.

    Ringkasan Tabel memungkinkan Anda mengamati semua layanan, serta metrik penting secara sekilas.

  3. Di kanan atas, klik Topologi. Di sini Anda dapat melihat layanan Anda dan interaksinya satu sama lain.

    Anda dapat meluaskan Layanan dan melihat Permintaan per detik untuk setiap layanan dengan mengarahkan kursor ke layanan tersebut.

  4. Kembali ke Tampilan Tabel.

  5. Di Tabel Layanan, pilih productcatalogservice. Tindakan ini akan membawa Anda ke ringkasan layanan.

  6. Di sebelah kiri layar, klik Traffic.

  7. Pastikan 100% traffic masuk ke productcatalogservice dirutekan ke layanan beban kerja.

Bagian berikutnya akan membahas pembuatan layanan productcatalog v2.

Men-deploy v2 layanan

  1. Untuk tutorial ini, productcatalogservice-v2 memperkenalkan latensi 3 detik ke dalam permintaan dengan kolom EXTRA_LATENCY. Tindakan ini menyimulasikan regresi dalam versi baru layanan.

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: productcatalogservice-v2
    spec:
      selector:
        matchLabels:
          app: productcatalogservice
      template:
        metadata:
          labels:
            app: productcatalogservice
            version: v2
        spec:
          containers:
          - env:
            - name: PORT
              value: '3550'
            - name: EXTRA_LATENCY
              value: 3s
            name: server
            image: gcr.io/google-samples/microservices-demo/productcatalogservice:v0.3.6
            livenessProbe:
              exec:
                command: ["/bin/grpc_health_probe", "-addr=:3550"]
            ports:
            - containerPort: 3550
            readinessProbe:
              exec:
                command: ["/bin/grpc_health_probe", "-addr=:3550"]
            resources:
              limits:
                cpu: 200m
                memory: 128Mi
              requests:
                cpu: 100m
                memory: 64Mi
          terminationGracePeriodSeconds: 5

    Terapkan resource ini ke namespace onlineboutique.

    kubectl apply -f productcatalog-v2.yaml -n onlineboutique
    
  2. Periksa pod aplikasi Anda.

    kubectl get pods -n onlineboutique
    

    Output yang diharapkan:

    NAME                                     READY   STATUS    RESTARTS   AGE
    adservice-85598d856b-8wqfd                  2/2     Running   0          25h
    cartservice-c77f6b866-7jwcr                 2/2     Running   0          25h
    checkoutservice-654c47f4b6-n8c6x            2/2     Running   0          25h
    currencyservice-59bc889674-l5xw2            2/2     Running   0          25h
    emailservice-5b9fff7cb8-jjr89               2/2     Running   0          25h
    frontend-77b88cc7cb-bwtk4                   2/2     Running   0          25h
    loadgenerator-6958f5bc8b-lqmnw              2/2     Running   0          25h
    paymentservice-68dd9755bb-dckrj             2/2     Running   0          25h
    productcatalogservice-84f95c95ff-ddhjv      2/2     Running   0          25h
    productcatalogservice-v2-6df4cf5475-9lwjb   2/2     Running   0          8s
    recommendationservice-64dc9dfbc8-7s7cx      2/2     Running   0          25h
    redis-cart-5b569cd47-vw7lw                  2/2     Running   0          25h
    shippingservice-5488d5b6cb-dj5gd            2/2     Running   0          25h
    

    Perhatikan bahwa sekarang ada dua productcatalogservices yang tercantum.

  3. Gunakan DestinationRule untuk menentukan subset layanan. Dalam skenario ini, ada subset untuk v1, lalu subset terpisah untuk v2 dari productcatalogservice.

    apiVersion: networking.istio.io/v1beta1
    kind: DestinationRule
    metadata:
      name: productcatalogservice
    spec:
      host: productcatalogservice
      subsets:
      - labels:
          version: v1
        name: v1
      - labels:
          version: v2
        name: v2

    Perhatikan kolom labels. Versi productcatalogservice dibedakan setelah traffic dirutekan oleh VirtualService.

    Terapkan DestinationRule:

    kubectl apply -f destination-v1-v2.yaml -n onlineboutique
    

Memisahkan traffic antara v1 dan v2

  1. Gunakan VirtualService untuk menentukan sebagian kecil traffic yang akan diarahkan ke v2 productcatalogservice.

    apiVersion: networking.istio.io/v1beta1
    kind: VirtualService
    metadata:
      name: productcatalogservice
    spec:
      hosts:
      - productcatalogservice
      http:
      - route:
        - destination:
            host: productcatalogservice
            subset: v1
          weight: 75
        - destination:
            host: productcatalogservice
            subset: v2
          weight: 25

    Kolom subset menunjukkan versi, dan kolom bobot menunjukkan persentase pemisahan traffic. 75% traffic diarahkan ke v1 productcatalog, dan 25% diarahkan ke v2.

    Terapkan VirtualService:

    kubectl apply -f vs-split-traffic.yaml -n onlineboutique
    

Jika Anda mengunjungi EXTERNAL_IP ingress cluster, Anda akan melihat bahwa secara berkala, frontend lebih lambat dimuat.

Di bagian berikutnya, jelajahi pemisahan traffic di konsol Google Cloud.

Mengamati pemisahan traffic di konsol Google Cloud

  1. Kembali ke konsol Google Cloud dan buka halaman Layanan Enterprise GKE. Buka Layanan GKE Enterprise

  2. Di kanan atas, klik Topologi.

    Luaskan workload productcatalogservice dan catat deployment productcatalogservice dan productcatalogservice-v2.

  3. Kembali ke Tampilan Tabel.

  4. Klik productcatalogservice di Tabel Layanan.

  5. Kembali ke Traffic di menu navigasi sebelah kiri.

  6. Perhatikan bahwa traffic masuk dibagi antara v1 dan v2 berdasarkan persentase yang ditentukan dalam file VirtualService, dan bahwa ada 2 beban kerja layanan productcatalog.

    Di sisi kanan halaman, Anda akan melihat Permintaan, Rasio Error, dan Metrik Latensi. Dengan Cloud Service Mesh, setiap layanan memiliki metrik ini yang diuraikan untuk memberi Anda metrik visibilitas.

Meluncurkan atau melakukan rollback ke versi

Setelah mengamati metrik selama deployment canary, Anda dapat menyelesaikan peluncuran versi layanan baru, atau melakukan roll back ke versi layanan asli dengan memanfaatkan resource VirtualService.

Peluncuran

Setelah puas dengan perilaku layanan v2, Anda dapat meningkatkan persentase traffic yang diarahkan ke layanan v2 secara bertahap. Pada akhirnya, traffic dapat diarahkan 100% ke layanan baru di resource VirtualService yang Anda buat di atas dengan menghapus pemisahan traffic dari resource tersebut.

apiVersion: networking.istio.io/v1beta1
kind: VirtualService
metadata:
  name: productcatalogservice
spec:
  hosts:
  - productcatalogservice
  http:
  - route:
    - destination:
        host: productcatalogservice
        subset: v2

Untuk mengarahkan semua traffic ke v2 productcatalogservice:

kubectl apply -f vs-v2.yaml -n onlineboutique

Kembalikan

Jika Anda perlu melakukan roll back ke layanan v1, terapkan destination-vs-v1.yaml dari sebelumnya. Tindakan ini hanya mengarahkan traffic ke v1 productcatalogservice.

apiVersion: networking.istio.io/v1beta1
kind: VirtualService
metadata:
  name: productcatalogservice
spec:
  hosts:
  - productcatalogservice
  http:
  - route:
    - destination:
        host: productcatalogservice
        subset: v1

Untuk mengarahkan semua traffic ke v1 productcatalogservice:

kubectl apply -f vs-v1.yaml -n onlineboutique

Pembersihan

Agar tidak perlu membayar biaya pada akun Google Cloud Anda untuk resource yang digunakan dalam tutorial ini, hapus project yang berisi resource tersebut, atau simpan project dan hapus setiap resource.

Agar tidak dikenai biaya berkelanjutan pada akun Google Cloud Anda untuk resource yang digunakan dalam tutorial ini, Anda dapat menghapus project atau menghapus setiap resource.

Menghapus project

Di Cloud Shell, hapus project:

gcloud projects delete PROJECT_ID

Menghapus resource

Jika Anda ingin mencegah tagihan tambahan, hapus cluster:

gcloud container clusters delete  CLUSTER_NAME  \
  --project=PROJECT_ID \
  --zone=CLUSTER_LOCATION 

Jika Anda mendaftarkan cluster ke fleet menggunakan gcloud container fleet memberships (bukan --enable-fleet atau --fleet-project selama pembuatan cluster), hapus keanggotaan yang sudah tidak berlaku:

gcloud container fleet memberships delete  MEMBERSHIP  \
  --project=PROJECT_ID

Jika Anda ingin tetap mengonfigurasi cluster untuk Cloud Service Mesh, tetapi menghapus contoh Online Boutique:

  1. Hapus namespace aplikasi:

    kubectl delete -f namespace onlineboutique
    

    Output yang diharapkan:

    namespace "onlineboutique" deleted
    
  2. Hapus entri layanan:

    kubectl delete -f https://raw.githubusercontent.com/GoogleCloudPlatform/microservices-demo/main/istio-manifests/frontend.yaml -n onlineboutique
    kubectl delete -f https://raw.githubusercontent.com/GoogleCloudPlatform/microservices-demo/main/istio-manifests/frontend-gateway.yaml -n onlineboutique
    

    Output yang diharapkan:

    serviceentry.networking.istio.io "allow-egress-googleapis" deleted
    serviceentry.networking.istio.io "allow-egress-google-metadata" deleted
    

Langkah selanjutnya