Menyediakan Cloud Service Mesh terkelola dengan asmcli

Ringkasan

Cloud Service Mesh Terkelola dengan asmcli adalah bidang kontrol terkelola dan bidang data terkelola yang dapat Anda konfigurasi dengan mudah. Google menangani keandalan, upgrade, penskalaan, dan keamanannya untuk Anda dengan cara yang kompatibel dengan versi sebelumnya. Panduan ini menjelaskan cara menyiapkan atau memigrasikan aplikasi ke Cloud Service Mesh terkelola dalam konfigurasi satu atau multi-cluster dengan asmcli.

Untuk mempelajari fitur dan batasan Cloud Service Mesh terkelola yang didukung, lihat Fitur yang didukung Cloud Service Mesh terkelola.

Prasyarat

Sebagai titik awal, panduan ini mengasumsikan bahwa Anda memiliki:

Persyaratan

  • Satu atau beberapa cluster dengan versi GKE yang didukung, di salah satu region yang didukung.
  • Perhatikan bahwa Cloud Service Mesh terkelola menggunakan saluran rilis GKE untuk menyeimbangkan stabilitas dan kecepatan upgrade. Perubahan baru pada komponen dalam cluster Cloud Service Mesh (termasuk CNI, MDPC, proxy, dan CRD Istio) akan diluncurkan ke cluster yang berlangganan saluran cepat GKE terlebih dahulu. Kemudian, versi tersebut akan dipromosikan ke saluran reguler GKE, dan akhirnya saluran stabil GKE, setelah menunjukkan stabilitas yang memadai.

    • Cloud Service Mesh Terkelola tidak mendukung perubahan saluran rilis GKE dengan aman.
    • Jika Anda mengubah saluran rilis GKE, Cloud Service Mesh akan otomatis mengupgrade/mendowngrade komponen dalam cluster (CNI, MDPC, versi proxy yang dimasukkan secara default, dan CRD Istio) agar selaras dengan saluran rilis GKE saat ini.
  • Pastikan cluster Anda memiliki kapasitas yang cukup untuk komponen yang diperlukan yang diinstal Cloud Service Mesh terkelola di cluster.

    • Deployment mdp-controller di namespace kube-system meminta CPU: 50 m, memori: 128 Mi.
    • DaemonSet istio-cni-node di namespace kube-system meminta CPU: 100 m, memori: 100 Mi di setiap node.
  • Pastikan kebijakan organisasi constraints/compute.disableInternetNetworkEndpointGroup dinonaktifkan. Jika kebijakan diaktifkan, ServiceEntry mungkin tidak berfungsi.

  • Pastikan mesin klien yang Anda gunakan untuk menyediakan Cloud Service Mesh terkelola memiliki konektivitas jaringan ke server API.

  • Cluster Anda harus terdaftar ke fleet. Langkah ini dapat dilakukan secara terpisah sebelum penyediaan atau sebagai bagian dari penyediaan dengan meneruskan flag --enable-registration dan --fleet-id.

  • Project Anda harus mengaktifkan fitur fleet Service Mesh. Anda dapat mengaktifkannya sebagai bagian dari penyediaan dengan meneruskan --enable-gcp-components, atau dengan menjalankan perintah berikut:

    gcloud container fleet mesh enable --project=FLEET_PROJECT_ID
    

    dengan FLEET_PROJECT_ID adalah project-id project host fleet.

  • GKE Autopilot hanya didukung dengan GKE versi 1.21.3+.

  • Cloud Service Mesh dapat menggunakan beberapa cluster GKE dalam lingkungan satu jaringan satu project atau lingkungan satu jaringan multi-project.

    • Jika Anda bergabung ke cluster yang tidak berada dalam project yang sama, cluster tersebut harus terdaftar ke project host fleet yang sama, dan cluster tersebut harus berada dalam konfigurasi VPC bersama bersama-sama di jaringan yang sama.
    • Untuk lingkungan multi-cluster satu project, project fleet dapat sama dengan project cluster. Untuk informasi selengkapnya tentang fleet, lihat Ringkasan Fleet.
    • Untuk lingkungan multi-project, sebaiknya Anda menghosting fleet di project terpisah dari project cluster. Jika kebijakan organisasi dan konfigurasi yang ada mengizinkannya, sebaiknya gunakan project VPC bersama sebagai project host fleet. Untuk informasi selengkapnya, lihat Menyiapkan cluster dengan VPC Bersama.
    • Jika organisasi Anda menggunakan Kontrol Layanan VPC dan Anda menyediakan Cloud Service Mesh di cluster GKE dengan rilis yang lebih besar atau sama dengan 1.22.1-gke.10, Anda mungkin perlu melakukan langkah-langkah konfigurasi tambahan:
      • Jika Anda menyediakan Cloud Service Mesh di saluran rilis reguler atau stabil, Anda harus menggunakan flag --use-vpcsc tambahan saat menerapkan platform kontrol terkelola dan mengikuti panduan Kontrol Layanan VPC (pratinjau). Jika tidak, penyediaan akan gagal dalam mengontrol keamanan.
      • Jika Anda menyediakan Cloud Service Mesh di saluran rilis cepat, Anda tidak perlu menggunakan flag --use-vpcsc tambahan saat menerapkan bidang kontrol terkelola, tetapi Anda harus mengikuti panduan Kontrol Layanan VPC (GA).

Peran yang diperlukan untuk menginstal Cloud Service Mesh

Tabel berikut menjelaskan peran yang diperlukan untuk menginstal Cloud Service Mesh terkelola.

Nama peran ID Peran Lokasi pemberian Deskripsi
GKE Hub Admin roles/gkehub.admin Project fleet Akses penuh ke GKE Hubs dan resource terkait.
Service Usage Admin roles/serviceusage.serviceUsageAdmin Project fleet Kemampuan untuk mengaktifkan, menonaktifkan, dan memeriksa status layanan, memeriksa operasi, serta menggunakan kuota dan penagihan untuk project konsumen. (Catatan 1)
CA Service Admin Beta roles/privateca.admin Project fleet Akses penuh ke semua resource CA Service. (Catatan 2)

Batasan

Sebaiknya tinjau daftar fitur dan batasan yang didukung Cloud Service Mesh. Secara khusus, perhatikan hal berikut:

  • IstioOperator API tidak didukung karena tujuan utamanya adalah untuk mengontrol komponen dalam cluster.

  • Untuk cluster GKE Autopilot, penyiapan lintas project hanya didukung dengan GKE 1.23 atau yang lebih baru.

  • Untuk cluster GKE Autopilot, agar dapat beradaptasi dengan batas resource GKE Autopilot, permintaan dan batas resource proxy default ditetapkan ke CPU 500 m dan memori 512 Mb. Anda dapat mengganti nilai default menggunakan injeksi kustom.

  • Selama proses penyediaan untuk bidang kontrol terkelola, CRD Istio disediakan di cluster yang ditentukan. Jika ada CRD Istio yang ada di cluster, CRD tersebut akan ditimpa.

  • Istio CNI dan Cloud Service Mesh tidak kompatibel dengan GKE Sandbox. Oleh karena itu, Cloud Service Mesh terkelola dengan penerapan TRAFFIC_DIRECTOR tidak mendukung cluster dengan GKE Sandbox yang diaktifkan.

  • Alat asmcli harus memiliki akses ke endpoint Google Kubernetes Engine (GKE). Anda dapat mengonfigurasi akses melalui server"jump", seperti VM Compute Engine dalam Virtual Private Cloud (VPC) yang memberikan akses tertentu.

Sebelum memulai

Mengonfigurasi gcloud

Selesaikan langkah-langkah berikut meskipun Anda menggunakan Cloud Shell.

  1. Lakukan autentikasi dengan Google Cloud CLI:

    gcloud auth login --project PROJECT_ID
    

    dengan PROJECT_ID adalah ID unik project cluster Anda. Jalankan perintah berikut untuk mendapatkan PROJECT_ID:

       gcloud projects list --filter="<PROJECT ID>" --format="value(PROJECT_NUMBER)"
       ```
    
  2. Perbarui komponen:

    gcloud components update
    
  3. Konfigurasi kubectl untuk mengarah ke cluster.

    gcloud container clusters get-credentials CLUSTER_NAME \
         --zone CLUSTER_LOCATION \
         --project PROJECT_ID
    

Mendownload alat penginstalan

  1. Download alat versi terbaru ke direktori kerja saat ini:

    curl https://storage.googleapis.com/csm-artifacts/asm/asmcli > asmcli
    
  2. Buat alat dapat dieksekusi:

    chmod +x asmcli
    

Mengonfigurasi setiap cluster

Gunakan langkah-langkah berikut untuk mengonfigurasi Cloud Service Mesh terkelola untuk setiap cluster di mesh Anda.

Menerapkan bidang kontrol terkelola

Sebelum menerapkan kontrol plane terkelola, Anda harus memilih saluran rilis. Saluran Cloud Service Mesh Anda ditentukan oleh saluran cluster GKE Anda pada saat menyediakan Cloud Service Mesh terkelola. Perhatikan bahwa beberapa saluran dalam cluster yang sama secara bersamaan tidak didukung.

Jalankan alat penginstalan untuk setiap cluster yang akan menggunakan Cloud Service Mesh terkelola. Sebaiknya sertakan kedua opsi berikut:

  • --enable-registration --fleet_id FLEET_PROJECT_ID Dua flag ini mendaftarkan cluster ke fleet, dengan FLEET_ID adalah project-id project host fleet. Jika menggunakan satu project, FLEET_PROJECT_ID sama dengan PROJECT_ID, project host armada dan project cluster sama. Dalam konfigurasi yang lebih rumit seperti multi-project, sebaiknya gunakan project host fleet terpisah.

  • --enable-all. Flag ini mengaktifkan komponen dan pendaftaran yang diperlukan.

Alat asmcli mengonfigurasi bidang kontrol terkelola secara langsung menggunakan alat dan logika di dalam alat CLI. Gunakan kumpulan petunjuk di bawah ini, bergantung pada CA pilihan Anda.

Certificate Authority

Pilih Certificate Authority yang akan digunakan untuk mesh Anda.

CA Mesh

Jalankan perintah berikut untuk menginstal platform kontrol dengan fitur default dan CA Mesh. Masukkan nilai Anda di placeholder yang disediakan.

  ./asmcli install \
      -p PROJECT_ID \
      -l LOCATION \
      -n CLUSTER_NAME \
      --fleet_id FLEET_PROJECT_ID \
      --managed \
      --verbose \
      --output_dir DIR_PATH \
      --enable-all

CA Service

  1. Ikuti langkah-langkah di Mengonfigurasi Certificate Authority Service.
  2. Jalankan perintah berikut untuk menginstal platform kontrol dengan fitur default dan Layanan Otoritas Sertifikasi. Masukkan nilai Anda di placeholder yang disediakan.
  ./asmcli install \
      -p PROJECT_ID \
      -l LOCATION \
      -n CLUSTER_NAME \
      --fleet_id FLEET_PROJECT_ID \
      --managed \
      --verbose \
      --output_dir DIR_PATH \
      --enable-all \
      --ca gcp_cas \
      --ca_pool pool_name

Alat ini mendownload semua file untuk mengonfigurasi platform kontrol terkelola ke --output_dir yang ditentukan, menginstal alat istioctl, dan aplikasi contoh. Langkah-langkah dalam panduan ini mengasumsikan bahwa Anda menjalankan istioctl dari lokasi --output_dir yang Anda tentukan saat menjalankan asmcli install, dengan istioctl ada di subdirektori <Istio release dir>/bin-nya.

Jika Anda menjalankan ulang asmcli di cluster yang sama, konfigurasi panel kontrol yang ada akan ditimpa. Pastikan untuk menentukan opsi dan tanda yang sama jika Anda menginginkan konfigurasi yang sama.

Memverifikasi bahwa bidang kontrol telah disediakan

Setelah beberapa menit, verifikasi bahwa status bidang kontrol adalah ACTIVE:

gcloud container fleet mesh describe --project FLEET_PROJECT_ID

Outputnya mirip dengan:

membershipStates:
  projects/746296320118/locations/us-central1/memberships/demo-cluster-1:
    servicemesh:
      controlPlaneManagement:
        details:
        - code: REVISION_READY
          details: 'Ready: asm-managed'
        state: ACTIVE
      ...
    state:
      code: OK
      description: 'Revision(s) ready for use: asm-managed.'

Jika status tidak mencapai ACTIVE` dalam beberapa menit, lihat Memeriksa status panel kontrol terkelola untuk mengetahui informasi selengkapnya tentang kemungkinan error.

Upgrade zero-touch

Setelah bidang kontrol terkelola diinstal, Google akan otomatis mengupgradenya saat rilis atau patch baru tersedia.

Bidang data terkelola

Jika Anda menggunakan Cloud Service Mesh terkelola, Google akan sepenuhnya mengelola upgrade proxy Anda.

Dengan mengaktifkan fitur bidang data terkelola, proxy sidecar dan gateway yang dimasukkan akan diperbarui secara aktif dan otomatis bersama dengan bidang kontrol terkelola dengan memulai ulang beban kerja untuk memasukkan ulang versi baru proxy. Proses ini dimulai setelah control plane diupgrade dan biasanya selesai dalam waktu 2 minggu setelah dimulai.

Perhatikan bahwa data plane terkelola bergantung pada saluran rilis GKE. Jika Anda mengubah saluran rilis GKE saat platform data terkelola diaktifkan, Cloud Service Mesh terkelola akan memperbarui proxy dari semua workload yang ada seperti peluncuran platform data terkelola.

Jika dinonaktifkan, pengelolaan proxy dilakukan secara pasif - didorong oleh siklus proses alami pod di cluster dan harus dipicu secara manual oleh pengguna untuk mengontrol kecepatan update.

Bidang data terkelola mengupgrade proxy dengan mengeluarkan pod yang menjalankan proxy versi sebelumnya. Pengusiran dilakukan secara bertahap, dengan mematuhi anggaran gangguan pod dan mengontrol kecepatan perubahan.

Bidang data terkelola tidak mengelola hal berikut:

  • Pod yang tidak diinjeksi
  • Pod yang dimasukkan secara manual
  • Tugas
  • StatefulSet
  • DaemonSet

Jika telah menyediakan Cloud Service Mesh terkelola di cluster lama, Anda dapat mengaktifkan pengelolaan bidang data untuk seluruh cluster:

kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
mesh.cloud.google.com/proxy='{"managed":"true"}'

Atau, Anda dapat mengaktifkan platform data terkelola secara selektif untuk revisi, namespace, atau pod platform kontrol tertentu dengan menganotasinya dengan anotasi yang sama. Jika Anda mengontrol setiap komponen secara selektif, urutan prioritasnya adalah revisi control plane, lalu namespace, lalu pod.

Mungkin perlu waktu hingga sepuluh menit agar layanan siap mengelola proxy di cluster. Jalankan perintah berikut untuk memeriksa status:

gcloud container fleet mesh describe --project FLEET_PROJECT_ID

Output yang diharapkan

membershipStates:
  projects/PROJECT_NUMBER/locations/global/memberships/CLUSTER_NAME:
    servicemesh:
      dataPlaneManagement:
        details:
        - code: OK
          details: Service is running.
        state: ACTIVE
    state:
      code: OK
      description: 'Revision(s) ready for use: asm-managed-rapid.'

Jika layanan tidak siap dalam sepuluh menit, lihat Status platform data terkelola untuk mengetahui langkah berikutnya.

Menonaktifkan bidang data terkelola (opsional)

Jika menyediakan Cloud Service Mesh terkelola di cluster baru, Anda dapat menonaktifkan sepenuhnya bidang data terkelola, atau untuk setiap namespace atau pod. Data plane terkelola akan terus dinonaktifkan untuk cluster yang ada jika dinonaktifkan secara default atau manual.

Untuk menonaktifkan bidang data terkelola di tingkat cluster dan kembali ke pengelolaan proxy sidecar sendiri, ubah anotasi:

kubectl annotate --overwrite controlplanerevision -n istio-system \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Untuk menonaktifkan bidang data terkelola untuk namespace:

kubectl annotate --overwrite namespace NAMESPACE \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Untuk menonaktifkan bidang data terkelola untuk pod:

kubectl annotate --overwrite pod POD_NAME \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Mengaktifkan masa pemeliharaan

Jika Anda telah mengonfigurasi periode pemeliharaan GKE, upgrade aktif akan dimulai pada awal periode pemeliharaan berikutnya yang tersedia dan dilanjutkan tanpa jeda hingga semua pod terkelola telah diupdate (biasanya 12 jam). Masa pemeliharaan tidak diberlakukan untuk peluncuran terkait CVE.

Cloud Service Mesh menggunakan periode pemeliharaan GKE agar selaras dengan GKE.

Mengaktifkan notifikasi pemeliharaan

Anda dapat meminta untuk diberi tahu tentang pemeliharaan platform data terkelola mendatang hingga satu minggu sebelum pemeliharaan dijadwalkan. Notifikasi pemeliharaan tidak dikirim secara default. Anda juga harus Mengonfigurasi periode pemeliharaan GKE sebelum dapat menerima notifikasi. Jika diaktifkan, notifikasi akan dikirim setidaknya dua hari sebelum operasi upgrade.

Untuk memilih untuk menerima notifikasi pemeliharaan bidang data terkelola:

  1. Buka halaman Komunikasi.

    Buka halaman Komunikasi

  2. Di baris Cloud Service Mesh Upgrade, pada kolom Email, pilih tombol pilihan untuk mengaktifkan notifikasi pemeliharaan AKTIF.

Setiap pengguna yang ingin menerima notifikasi harus mengaktifkannya secara terpisah. Jika Anda ingin menetapkan filter email untuk notifikasi ini, baris subjeknya adalah:

Upcoming upgrade for your Cloud Service Mesh cluster "CLUSTER_LOCATION/CLUSTER_NAME".

Contoh berikut menunjukkan notifikasi pemeliharaan bidang data terkelola yang umum:

Subject Line: Upgrade mendatang untuk cluster Cloud Service Mesh Anda "<location/cluster-name>"

Pengguna Cloud Service Mesh yang terhormat,

Komponen Cloud Service Mesh di cluster Anda ${instance_id} (https://console.cloud.google.com/kubernetes/clusters/details/${instance_id}/details?project=${project_id}) dijadwalkan untuk diupgrade pada ${scheduled_date_human_readable} pukul ${scheduled_time_human_readable}.

Anda dapat memeriksa catatan rilis (https://cloud.google.com/service-mesh/docs/release-notes) untuk mempelajari update baru ini.

Jika pemeliharaan ini dibatalkan, Anda akan menerima pemberitahuan melalui email.

Hormat kami,

Tim Cloud Service Mesh

(c) 2023 Google LLC 1600 Amphitheater Parkway, Mountain View, CA 94043 Kami mengirim pengumuman ini untuk menginformasikan perubahan penting pada Google Cloud Platform atau akun Anda. Anda dapat memilih untuk tidak menerima notifikasi masa pemeliharaan dengan mengedit preferensi pengguna: https://console.cloud.google.com/user-preferences/communication?project=${project_id}

Mengonfigurasi penemuan endpoint (hanya untuk penginstalan multi-cluster)

Jika mesh Anda hanya memiliki satu cluster, lewati langkah-langkah multi-cluster ini dan lanjutkan ke Men-deploy aplikasi atau Memigrasikan aplikasi.

Sebelum melanjutkan, pastikan Cloud Service Mesh dikonfigurasi di setiap cluster.

Cluster publik

Mengonfigurasi penemuan endpoint antar-cluster publik

Jika beroperasi di cluster publik (cluster non-pribadi), Anda dapat Mengonfigurasi penemuan endpoint di antara cluster publik atau lebih sederhana lagi, Mengaktifkan penemuan endpoint di antara cluster publik.

Cluster pribadi

Mengonfigurasi penemuan endpoint antar-cluster pribadi

Saat menggunakan cluster pribadi GKE, Anda harus mengonfigurasi endpoint bidang kontrol cluster menjadi endpoint publik, bukan endpoint pribadi. Lihat Mengonfigurasi penemuan endpoint di antara cluster pribadi.

Untuk contoh aplikasi dengan dua cluster, lihat contoh layanan HelloWorld.

Men-deploy aplikasi

Aktifkan namespace untuk injeksi. Langkah-langkahnya bergantung pada implementasi bidang kontrol Anda.

Terkelola (TD)

  1. Terapkan label injeksi default ke namespace:
kubectl label namespace NAMESPACE \
    istio.io/rev- istio-injection=enabled --overwrite

Dikelola (Istiod)

Direkomendasikan: Jalankan perintah berikut untuk menerapkan label injeksi default ke namespace:

  kubectl label namespace NAMESPACE \
      istio.io/rev- istio-injection=enabled --overwrite

Jika Anda adalah pengguna lama dengan platform kontrol Istiod Terkelola: Sebaiknya gunakan injeksi default, tetapi injeksi berbasis revisi didukung. Gunakan petunjuk berikut:

  1. Jalankan perintah berikut untuk menemukan saluran rilis yang tersedia:

    kubectl -n istio-system get controlplanerevision
    

    Outputnya mirip dengan hal berikut ini:

    NAME                AGE
    asm-managed-rapid   6d7h
    

    CATATAN: Jika dua revisi bidang kontrol muncul dalam daftar di atas, hapus salah satunya. Memiliki beberapa saluran bidang kontrol di cluster tidak didukung.

    Dalam output, nilai di kolom NAME adalah label revisi yang sesuai dengan saluran rilis yang tersedia untuk versi Cloud Service Mesh.

  2. Terapkan label revisi ke namespace:

    kubectl label namespace NAMESPACE \
        istio-injection- istio.io/rev=REVISION_LABEL --overwrite
    

Validasi bahwa label namespace diterapkan dengan benar menggunakan perintah berikut.

  kubectl get namespace -L istio-injection

Contoh output:

  NAME                 STATUS   AGE     ISTIO-INJECTION
  default              Active   5m9s    enabled

Pada tahap ini, Anda telah berhasil mengonfigurasi Cloud Service Mesh terkelola. Jika Anda memiliki workload yang ada di namespace berlabel, mulai ulang workload tersebut agar proxy dimasukkan.

Jika Anda men-deploy aplikasi dalam penyiapan multi-cluster, replikasikan konfigurasi Kubernetes dan bidang kontrol di semua cluster, kecuali jika Anda berencana untuk membatasi konfigurasi tertentu tersebut ke sebagian cluster. Konfigurasi yang diterapkan ke cluster tertentu adalah sumber tepercaya untuk cluster tersebut.

Menyesuaikan injeksi (opsional)

Anda dapat mengganti nilai default dan menyesuaikan setelan injeksi, tetapi hal ini dapat menyebabkan error konfigurasi yang tidak terduga dan masalah yang dihasilkan dengan penampung sidecar. Sebelum menyesuaikan injeksi, baca informasi setelah contoh untuk mengetahui catatan tentang setelan dan rekomendasi tertentu.

Konfigurasi per pod tersedia untuk mengganti opsi ini di setiap pod. Hal ini dilakukan dengan menambahkan penampung istio-proxy ke pod Anda. Injeksi sidecar akan memperlakukan konfigurasi apa pun yang ditentukan di sini sebagai penggantian untuk template injeksi default.

Misalnya, konfigurasi berikut menyesuaikan berbagai setelan, termasuk menurunkan permintaan CPU, menambahkan pemasangan volume, dan menambahkan hook preStop:

apiVersion: v1
kind: Pod
metadata:
  name: example
spec:
  containers:
  - name: hello
    image: alpine
  - name: istio-proxy
    image: auto
    resources:
      requests:
        cpu: "200m"
        memory: "256Mi"
      limits:
        cpu: "200m"
        memory: "256Mi"
    volumeMounts:
    - mountPath: /etc/certs
      name: certs
    lifecycle:
      preStop:
        exec:
          command: ["sleep", "10"]
  volumes:
  - name: certs
    secret:
      secretName: istio-certs

Secara umum, setiap kolom di pod dapat ditetapkan. Namun, Anda harus berhati-hati untuk kolom tertentu:

  • Kubernetes mewajibkan kolom image ditetapkan sebelum injeksi dijalankan. Meskipun Anda dapat menetapkan gambar tertentu untuk mengganti gambar default, sebaiknya tetapkan image ke auto, yang akan menyebabkan injector sidecar otomatis memilih gambar yang akan digunakan.
  • Beberapa kolom di containers bergantung pada setelan terkait. Misalnya, harus kurang dari atau sama dengan batas CPU. Jika kedua kolom tidak dikonfigurasi dengan benar, pod mungkin gagal dimulai.
  • Kubernetes dapat Anda gunakan untuk menetapkan requests dan limits untuk resource di spec Pod. GKE Autopilot hanya mempertimbangkan requests. Untuk mengetahui informasi selengkapnya, lihat Menetapkan batas resource di Autopilot.

Selain itu, kolom tertentu dapat dikonfigurasi dengan anotasi di Pod, meskipun sebaiknya gunakan pendekatan di atas untuk menyesuaikan setelan. Perhatikan dengan cermat anotasi berikut:

  • Untuk GKE Standard, jika sidecar.istio.io/proxyCPU ditetapkan, pastikan untuk menetapkan sidecar.istio.io/proxyCPULimit secara eksplisit. Jika tidak, batas CPU sidecar akan ditetapkan sebagai tidak terbatas.
  • Untuk GKE Standard, jika sidecar.istio.io/proxyMemory ditetapkan, pastikan untuk menetapkan sidecar.istio.io/proxyMemoryLimit secara eksplisit. Jika tidak, batas memori sidecar akan ditetapkan sebagai tidak terbatas.
  • Untuk GKE Autopilot, mengonfigurasi resource requests dan limits menggunakan anotasi dapat menyebabkan penyediaan resource yang berlebihan. Gunakan pendekatan template gambar untuk menghindari. Lihat Contoh modifikasi resource di Autopilot.

Misalnya, lihat anotasi resource di bawah:

spec:
  template:
    metadata:
      annotations:
        sidecar.istio.io/proxyCPU: "200m"
        sidecar.istio.io/proxyCPULimit: "200m"
        sidecar.istio.io/proxyMemory: "256Mi"
        sidecar.istio.io/proxyMemoryLimit: "256Mi"

Memverifikasi metrik bidang kontrol

Anda dapat melihat versi bidang kontrol dan bidang data di Metrics Explorer.

Untuk memverifikasi bahwa konfigurasi Anda berfungsi seperti yang diharapkan:

  1. Di konsol Google Cloud, lihat metrik platform kontrol:

    Buka Metrics Explorer

  2. Pilih ruang kerja Anda dan tambahkan kueri kustom menggunakan parameter berikut:

    • Jenis resource: Container Kubernetes
    • Metrik: Klien Proxy
    • Filter: container_name="cr-REVISION_LABEL"
    • Kelompokkan Menurut: Label revision dan label proxy_version
    • Aggregator: jumlah
    • Periode: 1 menit

    Saat menjalankan Cloud Service Mesh dengan platform kontrol dalam cluster dan yang dikelola Google, Anda dapat membedakan metrik berdasarkan nama penampung. Misalnya, metrik terkelola memiliki container_name="cr-asm-managed", sedangkan metrik yang tidak dikelola memiliki container_name="discovery". Untuk menampilkan metrik dari keduanya, hapus Filter di container_name="cr-asm-managed".

  3. Verifikasi versi bidang kontrol dan versi proxy dengan memeriksa kolom berikut di Metrics Explorer:

    • Kolom revision menunjukkan versi platform kontrol.
    • Kolom proxy_version menunjukkan proxy_version.
    • Kolom value menunjukkan jumlah proxy yang terhubung.

    Untuk pemetaan versi Cloud Service Mesh ke saluran saat ini, lihat Versi Cloud Service Mesh per saluran.

Memigrasikan aplikasi ke Cloud Service Mesh terkelola

Mempersiapkan untuk migrasi

Untuk bersiap memigrasikan aplikasi dari Cloud Service Mesh dalam cluster ke Cloud Service Mesh terkelola, lakukan langkah-langkah berikut:

  1. Jalankan alat seperti yang ditunjukkan di bagian Menerapkan bidang kontrol yang dikelola Google.

  2. (Opsional) Jika Anda ingin menggunakan bidang data yang dikelola Google, aktifkan pengelolaan bidang data:

      kubectl annotate --overwrite controlplanerevision REVISION_TAG \
      mesh.cloud.google.com/proxy='{"managed":"true"}'
    

Memigrasikan aplikasi

Untuk memigrasikan aplikasi dari Cloud Service Mesh dalam cluster ke Cloud Service Mesh terkelola, lakukan langkah-langkah berikut:

  1. Ganti label namespace saat ini. Langkah-langkahnya bergantung pada implementasi bidang kontrol Anda.

Terkelola (TD)

  1. Terapkan label injeksi default ke namespace:
kubectl label namespace NAMESPACE \
    istio.io/rev- istio-injection=enabled --overwrite

Dikelola (Istiod)

Direkomendasikan: Jalankan perintah berikut untuk menerapkan label injeksi default ke namespace:

  kubectl label namespace NAMESPACE \
      istio.io/rev- istio-injection=enabled --overwrite

Jika Anda adalah pengguna lama dengan platform kontrol Istiod Terkelola: Sebaiknya gunakan injeksi default, tetapi injeksi berbasis revisi didukung. Gunakan petunjuk berikut:

  1. Jalankan perintah berikut untuk menemukan saluran rilis yang tersedia:

    kubectl -n istio-system get controlplanerevision
    

    Outputnya mirip dengan hal berikut ini:

    NAME                AGE
    asm-managed-rapid   6d7h
    

    CATATAN: Jika dua revisi bidang kontrol muncul dalam daftar di atas, hapus salah satunya. Memiliki beberapa saluran bidang kontrol di cluster tidak didukung.

    Dalam output, nilai di kolom NAME adalah label revisi yang sesuai dengan saluran rilis yang tersedia untuk versi Cloud Service Mesh.

  2. Terapkan label revisi ke namespace:

    kubectl label namespace NAMESPACE \
        istio-injection- istio.io/rev=REVISION_LABEL --overwrite
    
  1. Lakukan upgrade berkelanjutan deployment di namespace:

    kubectl rollout restart deployment -n NAMESPACE
    
  2. Uji aplikasi Anda untuk memverifikasi bahwa workload berfungsi dengan benar.

  3. Jika Anda memiliki workload di namespace lain, ulangi langkah-langkah sebelumnya untuk setiap namespace.

  4. Jika Anda men-deploy aplikasi dalam penyiapan multi-cluster, replikasikan konfigurasi Kubernetes dan Istio di semua cluster, kecuali jika ada keinginan untuk membatasi konfigurasi tersebut hanya ke sebagian cluster. Konfigurasi yang diterapkan ke cluster tertentu adalah sumber tepercaya untuk cluster tersebut.

Jika Anda yakin bahwa aplikasi berfungsi seperti yang diharapkan, Anda dapat menghapus istiod dalam cluster setelah mengalihkan semua namespace ke platform kontrol terkelola, atau menyimpannya sebagai cadangan - istiod akan otomatis diskalakan ke bawah untuk menggunakan lebih sedikit resource. Untuk menghapus, lanjutkan ke Menghapus kontrol plane lama.

Jika mengalami masalah, Anda dapat mengidentifikasi dan menyelesaikannya menggunakan informasi di Memecahkan masalah panel kontrol terkelola dan jika perlu, melakukan roll back ke versi sebelumnya.

Menghapus platform kontrol lama

Setelah menginstal dan mengonfirmasi bahwa semua namespace menggunakan bidang kontrol yang dikelola Google, Anda dapat menghapus bidang kontrol lama.

kubectl delete Service,Deployment,HorizontalPodAutoscaler,PodDisruptionBudget istiod -n istio-system --ignore-not-found=true

Jika Anda menggunakan istioctl kube-inject, bukan injeksi otomatis, atau jika Anda menginstal gateway tambahan, periksa metrik untuk bidang kontrol, dan pastikan jumlah endpoint yang terhubung nol.

Kembalikan

Lakukan langkah-langkah berikut jika Anda perlu melakukan roll back ke versi panel kontrol sebelumnya:

  1. Perbarui beban kerja yang akan dimasukkan dengan versi control plane sebelumnya. Dalam perintah berikut, nilai revisi asm-191-1 hanya digunakan sebagai contoh. Ganti nilai contoh dengan label revisi dari platform kontrol sebelumnya.

    kubectl label namespace NAMESPACE istio-injection- istio.io/rev=asm-191-1 --overwrite
    
  2. Mulai ulang Pod untuk memicu injeksi ulang sehingga proxy memiliki versi sebelumnya:

    kubectl rollout restart deployment -n NAMESPACE
    

Bidang kontrol terkelola akan otomatis diskalakan ke nol dan tidak menggunakan resource apa pun saat tidak digunakan. Webhook dan penyediaan yang berubah akan tetap ada dan tidak memengaruhi perilaku cluster.

Gateway kini disetel ke revisi asm-managed. Untuk melakukan rollback, jalankan ulang perintah penginstalan Cloud Service Mesh, yang akan men-deploy ulang gateway yang mengarah kembali ke platform kontrol dalam cluster Anda:

kubectl -n istio-system rollout undo deploy istio-ingressgateway

Hasil yang diharapkan jika berhasil:

deployment.apps/istio-ingressgateway rolled back

Uninstal

Bidang kontrol terkelola diskalakan secara otomatis ke nol saat tidak ada namespace yang menggunakannya. Untuk langkah-langkah mendetail, lihat Meng-uninstal Cloud Service Mesh.

Pemecahan masalah

Untuk mengidentifikasi dan menyelesaikan masalah saat menggunakan bidang kontrol terkelola, lihat Memecahkan masalah bidang kontrol terkelola.

Apa langkah selanjutnya?