Menyediakan Cloud Service Mesh terkelola dengan asmcli
Ringkasan
Cloud Service Mesh Terkelola dengan asmcli
adalah bidang kontrol terkelola dan
bidang data terkelola yang dapat Anda konfigurasi dengan mudah. Google menangani keandalan, upgrade, penskalaan, dan keamanannya untuk Anda dengan cara yang kompatibel dengan versi sebelumnya. Panduan
ini menjelaskan cara menyiapkan atau memigrasikan aplikasi ke Cloud Service Mesh terkelola
dalam konfigurasi satu atau multi-cluster dengan asmcli
.
Untuk mempelajari fitur dan batasan Cloud Service Mesh terkelola yang didukung, lihat Fitur yang didukung Cloud Service Mesh terkelola.
Prasyarat
Sebagai titik awal, panduan ini mengasumsikan bahwa Anda memiliki:
- Project Cloud
- Akun Penagihan Cloud
- Mendapatkan izin yang diperlukan untuk menyediakan Cloud Service Mesh
- Alat penginstalan
asmcli
,kpt
, dan alat lainnya yang ditentukan dalam Menginstal alat yang diperlukan
Untuk penyediaan yang lebih cepat, cluster Anda harus mengaktifkan Workload Identity. Jika Workload Identity tidak diaktifkan, penyediaan akan otomatis mengaktifkannya.
Persyaratan
- Satu atau beberapa cluster dengan versi GKE yang didukung, di salah satu region yang didukung.
Perhatikan bahwa Cloud Service Mesh terkelola menggunakan saluran rilis GKE untuk menyeimbangkan stabilitas dan kecepatan upgrade. Perubahan baru pada komponen dalam cluster Cloud Service Mesh (termasuk CNI, MDPC, proxy, dan CRD Istio) akan diluncurkan ke cluster yang berlangganan saluran cepat GKE terlebih dahulu. Kemudian, versi tersebut akan dipromosikan ke saluran reguler GKE, dan akhirnya saluran stabil GKE, setelah menunjukkan stabilitas yang memadai.
- Cloud Service Mesh Terkelola tidak mendukung perubahan saluran rilis GKE dengan aman.
- Jika Anda mengubah saluran rilis GKE, Cloud Service Mesh akan otomatis mengupgrade/mendowngrade komponen dalam cluster (CNI, MDPC, versi proxy yang dimasukkan secara default, dan CRD Istio) agar selaras dengan saluran rilis GKE saat ini.
Pastikan cluster Anda memiliki kapasitas yang cukup untuk komponen yang diperlukan yang diinstal Cloud Service Mesh terkelola di cluster.
- Deployment
mdp-controller
di namespacekube-system
meminta CPU: 50 m, memori: 128 Mi. - DaemonSet
istio-cni-node
di namespacekube-system
meminta CPU: 100 m, memori: 100 Mi di setiap node.
- Deployment
Pastikan kebijakan organisasi
constraints/compute.disableInternetNetworkEndpointGroup
dinonaktifkan. Jika kebijakan diaktifkan, ServiceEntry mungkin tidak berfungsi.Pastikan mesin klien yang Anda gunakan untuk menyediakan Cloud Service Mesh terkelola memiliki konektivitas jaringan ke server API.
Cluster Anda harus terdaftar ke fleet. Langkah ini dapat dilakukan secara terpisah sebelum penyediaan atau sebagai bagian dari penyediaan dengan meneruskan flag
--enable-registration
dan--fleet-id
.Project Anda harus mengaktifkan fitur fleet Service Mesh. Anda dapat mengaktifkannya sebagai bagian dari penyediaan dengan meneruskan
--enable-gcp-components
, atau dengan menjalankan perintah berikut:gcloud container fleet mesh enable --project=FLEET_PROJECT_ID
dengan FLEET_PROJECT_ID adalah project-id project host fleet.
GKE Autopilot hanya didukung dengan GKE versi 1.21.3+.
Cloud Service Mesh dapat menggunakan beberapa cluster GKE dalam lingkungan satu jaringan satu project atau lingkungan satu jaringan multi-project.
- Jika Anda bergabung ke cluster yang tidak berada dalam project yang sama, cluster tersebut harus terdaftar ke project host fleet yang sama, dan cluster tersebut harus berada dalam konfigurasi VPC bersama bersama-sama di jaringan yang sama.
- Untuk lingkungan multi-cluster satu project, project fleet dapat sama dengan project cluster. Untuk informasi selengkapnya tentang fleet, lihat Ringkasan Fleet.
- Untuk lingkungan multi-project, sebaiknya Anda menghosting fleet di project terpisah dari project cluster. Jika kebijakan organisasi dan konfigurasi yang ada mengizinkannya, sebaiknya gunakan project VPC bersama sebagai project host fleet. Untuk informasi selengkapnya, lihat Menyiapkan cluster dengan VPC Bersama.
- Jika organisasi Anda menggunakan Kontrol Layanan VPC dan Anda menyediakan
Cloud Service Mesh di cluster GKE dengan rilis
yang lebih besar atau sama dengan 1.22.1-gke.10, Anda mungkin perlu melakukan langkah-langkah konfigurasi tambahan:
- Jika Anda menyediakan Cloud Service Mesh di saluran rilis reguler atau stabil, Anda harus menggunakan flag
--use-vpcsc
tambahan saat menerapkan platform kontrol terkelola dan mengikuti panduan Kontrol Layanan VPC (pratinjau). Jika tidak, penyediaan akan gagal dalam mengontrol keamanan. - Jika Anda menyediakan Cloud Service Mesh di saluran rilis
cepat, Anda
tidak perlu menggunakan flag
--use-vpcsc
tambahan saat menerapkan bidang kontrol terkelola, tetapi Anda harus mengikuti panduan Kontrol Layanan VPC (GA).
- Jika Anda menyediakan Cloud Service Mesh di saluran rilis reguler atau stabil, Anda harus menggunakan flag
Peran yang diperlukan untuk menginstal Cloud Service Mesh
Tabel berikut menjelaskan peran yang diperlukan untuk menginstal Cloud Service Mesh terkelola.
Nama peran | ID Peran | Lokasi pemberian | Deskripsi |
---|---|---|---|
GKE Hub Admin | roles/gkehub.admin | Project fleet | Akses penuh ke GKE Hubs dan resource terkait. |
Service Usage Admin | roles/serviceusage.serviceUsageAdmin | Project fleet | Kemampuan untuk mengaktifkan, menonaktifkan, dan memeriksa status layanan, memeriksa operasi, serta menggunakan kuota dan penagihan untuk project konsumen. (Catatan 1) |
CA Service Admin Beta | roles/privateca.admin | Project fleet | Akses penuh ke semua resource CA Service. (Catatan 2) |
Batasan
Sebaiknya tinjau daftar fitur dan batasan yang didukung Cloud Service Mesh. Secara khusus, perhatikan hal berikut:
IstioOperator
API tidak didukung karena tujuan utamanya adalah untuk mengontrol komponen dalam cluster.Untuk cluster GKE Autopilot, penyiapan lintas project hanya didukung dengan GKE 1.23 atau yang lebih baru.
Untuk cluster GKE Autopilot, agar dapat beradaptasi dengan batas resource GKE Autopilot, permintaan dan batas resource proxy default ditetapkan ke CPU 500 m dan memori 512 Mb. Anda dapat mengganti nilai default menggunakan injeksi kustom.
Selama proses penyediaan untuk bidang kontrol terkelola, CRD Istio disediakan di cluster yang ditentukan. Jika ada CRD Istio yang ada di cluster, CRD tersebut akan ditimpa.
Istio CNI dan Cloud Service Mesh tidak kompatibel dengan GKE Sandbox. Oleh karena itu, Cloud Service Mesh terkelola dengan penerapan
TRAFFIC_DIRECTOR
tidak mendukung cluster dengan GKE Sandbox yang diaktifkan.Alat
asmcli
harus memiliki akses ke endpoint Google Kubernetes Engine (GKE). Anda dapat mengonfigurasi akses melalui server"jump", seperti VM Compute Engine dalam Virtual Private Cloud (VPC) yang memberikan akses tertentu.
Sebelum memulai
Mengonfigurasi gcloud
Selesaikan langkah-langkah berikut meskipun Anda menggunakan Cloud Shell.
Lakukan autentikasi dengan Google Cloud CLI:
gcloud auth login --project PROJECT_ID
dengan PROJECT_ID adalah ID unik project cluster Anda. Jalankan perintah berikut untuk mendapatkan PROJECT_ID:
gcloud projects list --filter="<PROJECT ID>" --format="value(PROJECT_NUMBER)" ```
Perbarui komponen:
gcloud components update
Konfigurasi
kubectl
untuk mengarah ke cluster.gcloud container clusters get-credentials CLUSTER_NAME \ --zone CLUSTER_LOCATION \ --project PROJECT_ID
Mendownload alat penginstalan
Download alat versi terbaru ke direktori kerja saat ini:
curl https://storage.googleapis.com/csm-artifacts/asm/asmcli > asmcli
Buat alat dapat dieksekusi:
chmod +x asmcli
Mengonfigurasi setiap cluster
Gunakan langkah-langkah berikut untuk mengonfigurasi Cloud Service Mesh terkelola untuk setiap cluster di mesh Anda.
Menerapkan bidang kontrol terkelola
Sebelum menerapkan kontrol plane terkelola, Anda harus memilih saluran rilis. Saluran Cloud Service Mesh Anda ditentukan oleh saluran cluster GKE Anda pada saat menyediakan Cloud Service Mesh terkelola. Perhatikan bahwa beberapa saluran dalam cluster yang sama secara bersamaan tidak didukung.
Jalankan alat penginstalan untuk setiap cluster yang akan menggunakan Cloud Service Mesh terkelola. Sebaiknya sertakan kedua opsi berikut:
--enable-registration --fleet_id FLEET_PROJECT_ID
Dua flag ini mendaftarkan cluster ke fleet, dengan FLEET_ID adalah project-id project host fleet. Jika menggunakan satu project, FLEET_PROJECT_ID sama dengan PROJECT_ID, project host armada dan project cluster sama. Dalam konfigurasi yang lebih rumit seperti multi-project, sebaiknya gunakan project host fleet terpisah.--enable-all
. Flag ini mengaktifkan komponen dan pendaftaran yang diperlukan.
Alat asmcli
mengonfigurasi bidang kontrol terkelola secara langsung menggunakan alat dan logika di dalam alat CLI. Gunakan kumpulan petunjuk di bawah ini, bergantung pada
CA pilihan Anda.
Certificate Authority
Pilih Certificate Authority yang akan digunakan untuk mesh Anda.
CA Mesh
Jalankan perintah berikut untuk menginstal platform kontrol dengan fitur default dan CA Mesh. Masukkan nilai Anda di placeholder yang disediakan.
./asmcli install \
-p PROJECT_ID \
-l LOCATION \
-n CLUSTER_NAME \
--fleet_id FLEET_PROJECT_ID \
--managed \
--verbose \
--output_dir DIR_PATH \
--enable-all
CA Service
- Ikuti langkah-langkah di Mengonfigurasi Certificate Authority Service.
- Jalankan perintah berikut untuk menginstal platform kontrol dengan fitur default dan Layanan Otoritas Sertifikasi. Masukkan nilai Anda di placeholder yang disediakan.
./asmcli install \
-p PROJECT_ID \
-l LOCATION \
-n CLUSTER_NAME \
--fleet_id FLEET_PROJECT_ID \
--managed \
--verbose \
--output_dir DIR_PATH \
--enable-all \
--ca gcp_cas \
--ca_pool pool_name
Alat ini mendownload semua file untuk mengonfigurasi platform kontrol terkelola
ke --output_dir
yang ditentukan, menginstal alat istioctl
, dan aplikasi
contoh. Langkah-langkah dalam panduan ini mengasumsikan bahwa Anda menjalankan istioctl
dari
lokasi --output_dir
yang Anda tentukan saat menjalankan asmcli install
, dengan
istioctl
ada di subdirektori <Istio release dir>/bin
-nya.
Jika Anda menjalankan ulang asmcli
di cluster yang sama, konfigurasi panel kontrol yang ada akan ditimpa. Pastikan untuk menentukan opsi dan
tanda yang sama jika Anda menginginkan konfigurasi yang sama.
Memverifikasi bahwa bidang kontrol telah disediakan
Setelah beberapa menit, verifikasi bahwa status bidang kontrol adalah ACTIVE
:
gcloud container fleet mesh describe --project FLEET_PROJECT_ID
Outputnya mirip dengan:
membershipStates: projects/746296320118/locations/us-central1/memberships/demo-cluster-1: servicemesh: controlPlaneManagement: details: - code: REVISION_READY details: 'Ready: asm-managed' state: ACTIVE ... state: code: OK description: 'Revision(s) ready for use: asm-managed.'
Jika status tidak mencapai ACTIVE
` dalam beberapa menit, lihat
Memeriksa status panel kontrol terkelola
untuk mengetahui informasi selengkapnya tentang kemungkinan error.
Upgrade zero-touch
Setelah bidang kontrol terkelola diinstal, Google akan otomatis mengupgradenya saat rilis atau patch baru tersedia.
Bidang data terkelola
Jika Anda menggunakan Cloud Service Mesh terkelola, Google akan sepenuhnya mengelola upgrade proxy Anda.
Dengan mengaktifkan fitur bidang data terkelola, proxy sidecar dan gateway yang dimasukkan akan diperbarui secara aktif dan otomatis bersama dengan bidang kontrol terkelola dengan memulai ulang beban kerja untuk memasukkan ulang versi baru proxy. Proses ini dimulai setelah control plane diupgrade dan biasanya selesai dalam waktu 2 minggu setelah dimulai.
Perhatikan bahwa data plane terkelola bergantung pada saluran rilis GKE. Jika Anda mengubah saluran rilis GKE saat platform data terkelola diaktifkan, Cloud Service Mesh terkelola akan memperbarui proxy dari semua workload yang ada seperti peluncuran platform data terkelola.
Jika dinonaktifkan, pengelolaan proxy dilakukan secara pasif - didorong oleh siklus proses alami pod di cluster dan harus dipicu secara manual oleh pengguna untuk mengontrol kecepatan update.
Bidang data terkelola mengupgrade proxy dengan mengeluarkan pod yang menjalankan proxy versi sebelumnya. Pengusiran dilakukan secara bertahap, dengan mematuhi anggaran gangguan pod dan mengontrol kecepatan perubahan.
Bidang data terkelola tidak mengelola hal berikut:
- Pod yang tidak diinjeksi
- Pod yang dimasukkan secara manual
- Tugas
- StatefulSet
- DaemonSet
Jika telah menyediakan Cloud Service Mesh terkelola di cluster lama, Anda dapat mengaktifkan pengelolaan bidang data untuk seluruh cluster:
kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
mesh.cloud.google.com/proxy='{"managed":"true"}'
Atau, Anda dapat mengaktifkan platform data terkelola secara selektif untuk revisi, namespace, atau pod platform kontrol tertentu dengan menganotasinya dengan anotasi yang sama. Jika Anda mengontrol setiap komponen secara selektif, urutan prioritasnya adalah revisi control plane, lalu namespace, lalu pod.
Mungkin perlu waktu hingga sepuluh menit agar layanan siap mengelola proxy di cluster. Jalankan perintah berikut untuk memeriksa status:
gcloud container fleet mesh describe --project FLEET_PROJECT_ID
Output yang diharapkan
membershipStates:
projects/PROJECT_NUMBER/locations/global/memberships/CLUSTER_NAME:
servicemesh:
dataPlaneManagement:
details:
- code: OK
details: Service is running.
state: ACTIVE
state:
code: OK
description: 'Revision(s) ready for use: asm-managed-rapid.'
Jika layanan tidak siap dalam sepuluh menit, lihat Status platform data terkelola untuk mengetahui langkah berikutnya.
Menonaktifkan bidang data terkelola (opsional)
Jika menyediakan Cloud Service Mesh terkelola di cluster baru, Anda dapat menonaktifkan sepenuhnya bidang data terkelola, atau untuk setiap namespace atau pod. Data plane terkelola akan terus dinonaktifkan untuk cluster yang ada jika dinonaktifkan secara default atau manual.
Untuk menonaktifkan bidang data terkelola di tingkat cluster dan kembali ke pengelolaan proxy sidecar sendiri, ubah anotasi:
kubectl annotate --overwrite controlplanerevision -n istio-system \
mesh.cloud.google.com/proxy='{"managed":"false"}'
Untuk menonaktifkan bidang data terkelola untuk namespace:
kubectl annotate --overwrite namespace NAMESPACE \
mesh.cloud.google.com/proxy='{"managed":"false"}'
Untuk menonaktifkan bidang data terkelola untuk pod:
kubectl annotate --overwrite pod POD_NAME \
mesh.cloud.google.com/proxy='{"managed":"false"}'
Mengaktifkan masa pemeliharaan
Jika Anda telah mengonfigurasi periode pemeliharaan GKE, upgrade aktif akan dimulai pada awal periode pemeliharaan berikutnya yang tersedia dan dilanjutkan tanpa jeda hingga semua pod terkelola telah diupdate (biasanya 12 jam). Masa pemeliharaan tidak diberlakukan untuk peluncuran terkait CVE.
Cloud Service Mesh menggunakan periode pemeliharaan GKE agar selaras dengan GKE.
Mengaktifkan notifikasi pemeliharaan
Anda dapat meminta untuk diberi tahu tentang pemeliharaan platform data terkelola mendatang hingga satu minggu sebelum pemeliharaan dijadwalkan. Notifikasi pemeliharaan tidak dikirim secara default. Anda juga harus Mengonfigurasi periode pemeliharaan GKE sebelum dapat menerima notifikasi. Jika diaktifkan, notifikasi akan dikirim setidaknya dua hari sebelum operasi upgrade.
Untuk memilih untuk menerima notifikasi pemeliharaan bidang data terkelola:
Buka halaman Komunikasi.
Di baris Cloud Service Mesh Upgrade, pada kolom Email, pilih tombol pilihan untuk mengaktifkan notifikasi pemeliharaan AKTIF.
Setiap pengguna yang ingin menerima notifikasi harus mengaktifkannya secara terpisah. Jika Anda ingin menetapkan filter email untuk notifikasi ini, baris subjeknya adalah:
Upcoming upgrade for your Cloud Service Mesh cluster "CLUSTER_LOCATION/CLUSTER_NAME"
.
Contoh berikut menunjukkan notifikasi pemeliharaan bidang data terkelola yang umum:
Subject Line: Upgrade mendatang untuk cluster Cloud Service Mesh Anda "
<location/cluster-name>
"Pengguna Cloud Service Mesh yang terhormat,
Komponen Cloud Service Mesh di cluster Anda ${instance_id} (https://console.cloud.google.com/kubernetes/clusters/details/${instance_id}/details?project=${project_id}) dijadwalkan untuk diupgrade pada ${scheduled_date_human_readable} pukul ${scheduled_time_human_readable}.
Anda dapat memeriksa catatan rilis (https://cloud.google.com/service-mesh/docs/release-notes) untuk mempelajari update baru ini.
Jika pemeliharaan ini dibatalkan, Anda akan menerima pemberitahuan melalui email.
Hormat kami,
Tim Cloud Service Mesh
(c) 2023 Google LLC 1600 Amphitheater Parkway, Mountain View, CA 94043 Kami mengirim pengumuman ini untuk menginformasikan perubahan penting pada Google Cloud Platform atau akun Anda. Anda dapat memilih untuk tidak menerima notifikasi masa pemeliharaan dengan mengedit preferensi pengguna: https://console.cloud.google.com/user-preferences/communication?project=${project_id}
Mengonfigurasi penemuan endpoint (hanya untuk penginstalan multi-cluster)
Jika mesh Anda hanya memiliki satu cluster, lewati langkah-langkah multi-cluster ini dan lanjutkan ke Men-deploy aplikasi atau Memigrasikan aplikasi.
Sebelum melanjutkan, pastikan Cloud Service Mesh dikonfigurasi di setiap cluster.
Cluster publik
Mengonfigurasi penemuan endpoint antar-cluster publik
Jika beroperasi di cluster publik (cluster non-pribadi), Anda dapat Mengonfigurasi penemuan endpoint di antara cluster publik atau lebih sederhana lagi, Mengaktifkan penemuan endpoint di antara cluster publik.
Cluster pribadi
Mengonfigurasi penemuan endpoint antar-cluster pribadi
Saat menggunakan cluster pribadi GKE, Anda harus mengonfigurasi endpoint bidang kontrol cluster menjadi endpoint publik, bukan endpoint pribadi. Lihat Mengonfigurasi penemuan endpoint di antara cluster pribadi.
Untuk contoh aplikasi dengan dua cluster, lihat contoh layanan HelloWorld.
Men-deploy aplikasi
Aktifkan namespace untuk injeksi. Langkah-langkahnya bergantung pada implementasi bidang kontrol Anda.
Terkelola (TD)
- Terapkan label injeksi default ke namespace:
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
Dikelola (Istiod)
Direkomendasikan: Jalankan perintah berikut untuk menerapkan label injeksi default ke namespace:
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
Jika Anda adalah pengguna lama dengan platform kontrol Istiod Terkelola: Sebaiknya gunakan injeksi default, tetapi injeksi berbasis revisi didukung. Gunakan petunjuk berikut:
Jalankan perintah berikut untuk menemukan saluran rilis yang tersedia:
kubectl -n istio-system get controlplanerevision
Outputnya mirip dengan hal berikut ini:
NAME AGE asm-managed-rapid 6d7h
CATATAN: Jika dua revisi bidang kontrol muncul dalam daftar di atas, hapus salah satunya. Memiliki beberapa saluran bidang kontrol di cluster tidak didukung.
Dalam output, nilai di kolom
NAME
adalah label revisi yang sesuai dengan saluran rilis yang tersedia untuk versi Cloud Service Mesh.Terapkan label revisi ke namespace:
kubectl label namespace NAMESPACE \ istio-injection- istio.io/rev=REVISION_LABEL --overwrite
Validasi bahwa label namespace diterapkan dengan benar menggunakan perintah berikut.
kubectl get namespace -L istio-injection
Contoh output:
NAME STATUS AGE ISTIO-INJECTION
default Active 5m9s enabled
Pada tahap ini, Anda telah berhasil mengonfigurasi Cloud Service Mesh terkelola. Jika Anda memiliki workload yang ada di namespace berlabel, mulai ulang workload tersebut agar proxy dimasukkan.
Jika Anda men-deploy aplikasi dalam penyiapan multi-cluster, replikasikan konfigurasi Kubernetes dan bidang kontrol di semua cluster, kecuali jika Anda berencana untuk membatasi konfigurasi tertentu tersebut ke sebagian cluster. Konfigurasi yang diterapkan ke cluster tertentu adalah sumber tepercaya untuk cluster tersebut.
Menyesuaikan injeksi (opsional)
Anda dapat mengganti nilai default dan menyesuaikan setelan injeksi, tetapi hal ini dapat menyebabkan error konfigurasi yang tidak terduga dan masalah yang dihasilkan dengan penampung sidecar. Sebelum menyesuaikan injeksi, baca informasi setelah contoh untuk mengetahui catatan tentang setelan dan rekomendasi tertentu.
Konfigurasi per pod tersedia untuk mengganti opsi ini di setiap pod.
Hal ini dilakukan dengan menambahkan penampung istio-proxy
ke pod Anda. Injeksi sidecar akan memperlakukan konfigurasi apa pun yang ditentukan di sini sebagai penggantian untuk template injeksi default.
Misalnya, konfigurasi berikut menyesuaikan berbagai setelan,
termasuk menurunkan permintaan CPU, menambahkan pemasangan volume, dan menambahkan hook preStop
:
apiVersion: v1
kind: Pod
metadata:
name: example
spec:
containers:
- name: hello
image: alpine
- name: istio-proxy
image: auto
resources:
requests:
cpu: "200m"
memory: "256Mi"
limits:
cpu: "200m"
memory: "256Mi"
volumeMounts:
- mountPath: /etc/certs
name: certs
lifecycle:
preStop:
exec:
command: ["sleep", "10"]
volumes:
- name: certs
secret:
secretName: istio-certs
Secara umum, setiap kolom di pod dapat ditetapkan. Namun, Anda harus berhati-hati untuk kolom tertentu:
- Kubernetes mewajibkan kolom
image
ditetapkan sebelum injeksi dijalankan. Meskipun Anda dapat menetapkan gambar tertentu untuk mengganti gambar default, sebaiknya tetapkanimage
keauto
, yang akan menyebabkan injector sidecar otomatis memilih gambar yang akan digunakan. - Beberapa kolom di
containers
bergantung pada setelan terkait. Misalnya, harus kurang dari atau sama dengan batas CPU. Jika kedua kolom tidak dikonfigurasi dengan benar, pod mungkin gagal dimulai. - Kubernetes dapat Anda gunakan untuk menetapkan
requests
danlimits
untuk resource dispec
Pod. GKE Autopilot hanya mempertimbangkanrequests
. Untuk mengetahui informasi selengkapnya, lihat Menetapkan batas resource di Autopilot.
Selain itu, kolom tertentu dapat dikonfigurasi dengan anotasi di Pod, meskipun sebaiknya gunakan pendekatan di atas untuk menyesuaikan setelan. Perhatikan dengan cermat anotasi berikut:
- Untuk GKE Standard, jika
sidecar.istio.io/proxyCPU
ditetapkan, pastikan untuk menetapkansidecar.istio.io/proxyCPULimit
secara eksplisit. Jika tidak, batas CPU sidecar akan ditetapkan sebagai tidak terbatas. - Untuk GKE Standard, jika
sidecar.istio.io/proxyMemory
ditetapkan, pastikan untuk menetapkansidecar.istio.io/proxyMemoryLimit
secara eksplisit. Jika tidak, batas memori sidecar akan ditetapkan sebagai tidak terbatas. - Untuk GKE Autopilot, mengonfigurasi resource
requests
danlimits
menggunakan anotasi dapat menyebabkan penyediaan resource yang berlebihan. Gunakan pendekatan template gambar untuk menghindari. Lihat Contoh modifikasi resource di Autopilot.
Misalnya, lihat anotasi resource di bawah:
spec:
template:
metadata:
annotations:
sidecar.istio.io/proxyCPU: "200m"
sidecar.istio.io/proxyCPULimit: "200m"
sidecar.istio.io/proxyMemory: "256Mi"
sidecar.istio.io/proxyMemoryLimit: "256Mi"
Memverifikasi metrik bidang kontrol
Anda dapat melihat versi bidang kontrol dan bidang data di Metrics Explorer.
Untuk memverifikasi bahwa konfigurasi Anda berfungsi seperti yang diharapkan:
Di konsol Google Cloud, lihat metrik platform kontrol:
Pilih ruang kerja Anda dan tambahkan kueri kustom menggunakan parameter berikut:
- Jenis resource: Container Kubernetes
- Metrik: Klien Proxy
- Filter:
container_name="cr-REVISION_LABEL"
- Kelompokkan Menurut: Label
revision
dan labelproxy_version
- Aggregator: jumlah
- Periode: 1 menit
Saat menjalankan Cloud Service Mesh dengan platform kontrol dalam cluster dan yang dikelola Google, Anda dapat membedakan metrik berdasarkan nama penampung. Misalnya, metrik terkelola memiliki
container_name="cr-asm-managed"
, sedangkan metrik yang tidak dikelola memilikicontainer_name="discovery"
. Untuk menampilkan metrik dari keduanya, hapus Filter dicontainer_name="cr-asm-managed"
.Verifikasi versi bidang kontrol dan versi proxy dengan memeriksa kolom berikut di Metrics Explorer:
- Kolom revision menunjukkan versi platform kontrol.
- Kolom proxy_version menunjukkan
proxy_version
. - Kolom value menunjukkan jumlah proxy yang terhubung.
Untuk pemetaan versi Cloud Service Mesh ke saluran saat ini, lihat Versi Cloud Service Mesh per saluran.
Memigrasikan aplikasi ke Cloud Service Mesh terkelola
Mempersiapkan untuk migrasi
Untuk bersiap memigrasikan aplikasi dari Cloud Service Mesh dalam cluster ke Cloud Service Mesh terkelola, lakukan langkah-langkah berikut:
Jalankan alat seperti yang ditunjukkan di bagian Menerapkan bidang kontrol yang dikelola Google.
(Opsional) Jika Anda ingin menggunakan bidang data yang dikelola Google, aktifkan pengelolaan bidang data:
kubectl annotate --overwrite controlplanerevision REVISION_TAG \ mesh.cloud.google.com/proxy='{"managed":"true"}'
Memigrasikan aplikasi
Untuk memigrasikan aplikasi dari Cloud Service Mesh dalam cluster ke Cloud Service Mesh terkelola, lakukan langkah-langkah berikut:
- Ganti label namespace saat ini. Langkah-langkahnya bergantung pada implementasi bidang kontrol Anda.
Terkelola (TD)
- Terapkan label injeksi default ke namespace:
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
Dikelola (Istiod)
Direkomendasikan: Jalankan perintah berikut untuk menerapkan label injeksi default ke namespace:
kubectl label namespace NAMESPACE \
istio.io/rev- istio-injection=enabled --overwrite
Jika Anda adalah pengguna lama dengan platform kontrol Istiod Terkelola: Sebaiknya gunakan injeksi default, tetapi injeksi berbasis revisi didukung. Gunakan petunjuk berikut:
Jalankan perintah berikut untuk menemukan saluran rilis yang tersedia:
kubectl -n istio-system get controlplanerevision
Outputnya mirip dengan hal berikut ini:
NAME AGE asm-managed-rapid 6d7h
CATATAN: Jika dua revisi bidang kontrol muncul dalam daftar di atas, hapus salah satunya. Memiliki beberapa saluran bidang kontrol di cluster tidak didukung.
Dalam output, nilai di kolom
NAME
adalah label revisi yang sesuai dengan saluran rilis yang tersedia untuk versi Cloud Service Mesh.Terapkan label revisi ke namespace:
kubectl label namespace NAMESPACE \ istio-injection- istio.io/rev=REVISION_LABEL --overwrite
Lakukan upgrade berkelanjutan deployment di namespace:
kubectl rollout restart deployment -n NAMESPACE
Uji aplikasi Anda untuk memverifikasi bahwa workload berfungsi dengan benar.
Jika Anda memiliki workload di namespace lain, ulangi langkah-langkah sebelumnya untuk setiap namespace.
Jika Anda men-deploy aplikasi dalam penyiapan multi-cluster, replikasikan konfigurasi Kubernetes dan Istio di semua cluster, kecuali jika ada keinginan untuk membatasi konfigurasi tersebut hanya ke sebagian cluster. Konfigurasi yang diterapkan ke cluster tertentu adalah sumber tepercaya untuk cluster tersebut.
Jika Anda yakin bahwa aplikasi berfungsi seperti yang diharapkan, Anda dapat menghapus
istiod
dalam cluster setelah mengalihkan semua namespace ke platform kontrol
terkelola, atau menyimpannya sebagai cadangan - istiod
akan otomatis diskalakan ke bawah untuk menggunakan
lebih sedikit resource. Untuk menghapus, lanjutkan ke
Menghapus kontrol plane lama.
Jika mengalami masalah, Anda dapat mengidentifikasi dan menyelesaikannya menggunakan informasi di Memecahkan masalah panel kontrol terkelola dan jika perlu, melakukan roll back ke versi sebelumnya.
Menghapus platform kontrol lama
Setelah menginstal dan mengonfirmasi bahwa semua namespace menggunakan bidang kontrol yang dikelola Google, Anda dapat menghapus bidang kontrol lama.
kubectl delete Service,Deployment,HorizontalPodAutoscaler,PodDisruptionBudget istiod -n istio-system --ignore-not-found=true
Jika Anda menggunakan istioctl kube-inject
, bukan injeksi otomatis, atau jika Anda menginstal gateway tambahan, periksa metrik untuk bidang kontrol, dan pastikan jumlah endpoint yang terhubung nol.
Kembalikan
Lakukan langkah-langkah berikut jika Anda perlu melakukan roll back ke versi panel kontrol sebelumnya:
Perbarui beban kerja yang akan dimasukkan dengan versi control plane sebelumnya. Dalam perintah berikut, nilai revisi
asm-191-1
hanya digunakan sebagai contoh. Ganti nilai contoh dengan label revisi dari platform kontrol sebelumnya.kubectl label namespace NAMESPACE istio-injection- istio.io/rev=asm-191-1 --overwrite
Mulai ulang Pod untuk memicu injeksi ulang sehingga proxy memiliki versi sebelumnya:
kubectl rollout restart deployment -n NAMESPACE
Bidang kontrol terkelola akan otomatis diskalakan ke nol dan tidak menggunakan resource apa pun saat tidak digunakan. Webhook dan penyediaan yang berubah akan tetap ada dan tidak memengaruhi perilaku cluster.
Gateway kini disetel ke revisi asm-managed
. Untuk melakukan rollback, jalankan ulang
perintah penginstalan Cloud Service Mesh, yang akan men-deploy ulang gateway yang mengarah kembali
ke platform kontrol dalam cluster Anda:
kubectl -n istio-system rollout undo deploy istio-ingressgateway
Hasil yang diharapkan jika berhasil:
deployment.apps/istio-ingressgateway rolled back
Uninstal
Bidang kontrol terkelola diskalakan secara otomatis ke nol saat tidak ada namespace yang menggunakannya. Untuk langkah-langkah mendetail, lihat Meng-uninstal Cloud Service Mesh.
Pemecahan masalah
Untuk mengidentifikasi dan menyelesaikan masalah saat menggunakan bidang kontrol terkelola, lihat Memecahkan masalah bidang kontrol terkelola.
Apa langkah selanjutnya?
- Pelajari saluran rilis.
- Memigrasikan dari
IstioOperator
. - Memigrasikan gateway ke bidang kontrol terkelola.
- Pelajari cara Mengaktifkan fitur Cloud Service Mesh terkelola opsional, seperti: