Menyiapkan VM menggunakan deployment Envoy manual
Dokumen ini ditujukan untuk administrator jaringan yang ingin menyiapkan Cloud Service Mesh secara manual Proses manual adalah mekanisme lama yang dimaksudkan hanya untuk pengguna tingkat lanjut yang menyiapkan Cloud Service Mesh dengan beban balancing API.
Sebaiknya siapkan Cloud Service Mesh menggunakan API pemilihan rute layanan, bukan API load balancing versi lama. Jika Anda harus menggunakan load balancing API, sebaiknya gunakan deployment Envoy otomatis bukan proses manual yang dijelaskan di halaman ini.
Sebelum mengikuti petunjuk dalam panduan ini, selesaikan prasyarat tugas yang dijelaskan dalam Bersiaplah untuk menyiapkan API pemilihan rute layanan dengan Envoy dan workload tanpa proxy.
Panduan ini menunjukkan cara men-deploy bidang data yang terdiri dari Envoy secara manual proxy file bantuan dengan virtual machine (VM) Compute Engine, konfigurasikan menggunakan Cloud Service Mesh, dan verifikasi penyiapan Anda untuk memastikannya berfungsi dengan benar. Proses ini melibatkan:
- Membuat layanan pengujian.
- Men-deploy bidang data sederhana di Compute Engine menggunakan proxy Envoy.
- Menyiapkan Cloud Service Mesh menggunakan Compute Engine API, yang mengaktifkan Cloud Service Mesh untuk mengonfigurasi proxy file bantuan Envoy Anda.
- Login ke VM yang menjalankan proxy Envoy dan kirim permintaan ke backend yang di-load balanced melalui proxy Envoy.
Contoh konfigurasi dalam dokumen ini adalah untuk tujuan demonstrasi. Sebagai lingkungan produksi, Anda mungkin perlu memasang komponen tambahan, berdasarkan lingkungan dan persyaratan Anda.
Ringkasan proses konfigurasi
Bagian ini menyediakan proses konfigurasi manual untuk layanan yang menjalankan VM Compute Engine. Proses konfigurasi untuk VM klien terdiri dari penyiapan proxy file bantuan dan intersepsi traffic pada dengan host VM Compute Engine. Kemudian, Anda mengonfigurasi load balancing menggunakan Google Cloud Load Balancing API.
Bagian ini memberikan informasi tentang cara mendapatkan dan memasukkan proxy Envoy dari sumber pihak ketiga yang tidak dikelola oleh Google.
Saat aplikasi mengirimkan traffic ke layanan yang telah dikonfigurasi di di Cloud Service Mesh, traffic dicegat dan dialihkan ke xDS Proxy file bantuan yang kompatibel dengan API, lalu dilakukan load balancing ke backend sesuai pada konfigurasi dalam komponen Google Cloud Load Balancing. Untuk informasi selengkapnya tentang jaringan {i>host<i} dan intersepsi lalu lintas, baca Intersepsi traffic proxy file bantuan di Cloud Service Mesh.
Untuk setiap host VM yang memerlukan akses ke layanan Cloud Service Mesh, lakukan langkah-langkah berikut:
Menetapkan akun layanan ke VM.
Tetapkan cakupan akses API VM untuk mengizinkan akses penuh ke Google Cloud API.
- Saat Anda membuat VM, di bagian Identity and API access, klik Allow full access to all Cloud APIs.
Dengan gcloud CLI, tentukan hal berikut:
--scopes=https://www.googleapis.com/auth/cloud-platform
.
Izinkan koneksi keluar ke
trafficdirector.googleapis.com
(TCP, port 443) dari VM, sehingga proxy file bantuan dapat terhubung ke Bidang kontrol Cloud Service Mesh melalui gRPC. Koneksi keluar ke port 443 diaktifkan secara default.Deploy proxy file bantuan yang kompatibel dengan xDS API (seperti Envoy), dengan konfigurasi bootstrap mengarah ke
trafficdirector.googleapis.com:443
sebagai server xDS-nya. Untuk mendapatkan contoh konfigurasi bootstrap buka file traffic-director-xdsv3.tar.gz yang dikompresi dan ubah filebootstrap_template.yaml
agar sesuai dengan kebutuhan Anda.Mengalihkan traffic IP yang ditujukan ke layanan ke proxy file bantuan porta pemroses intersepsi.
- Port pemroses intersepsi proxy proxy bantuan didefinisikan sebagai
TRAFFICDIRECTOR_INTERCEPTION_PORT
dalam metadata bootstrap proxy dan disetel ke 15001 dalam contoh file konfigurasi bootstrap dalam file terkompresi ini. - Skrip Istio
iptables.sh
dalam file yang dikompresi dapat digunakan untuk menyiapkan intersepsi traffic.
- Port pemroses intersepsi proxy proxy bantuan didefinisikan sebagai
Membuat layanan pengujian Hello World
Bagian ini menunjukkan cara membuat layanan pengujian sederhana yang menampilkan nama host VM yang menyampaikan permintaan dari klien. Layanan pengujian tidak rumit; ini adalah server web yang di-deploy di Compute Engine grup instance terkelola.
Membuat template instance
Template instance yang Anda buat akan mengonfigurasi server web apache2 contoh
menggunakan parameter startup-script
.
Konsol
Di konsol Google Cloud, buka halaman Instance templates.
- Klik Create instance template.
- Di kolom, masukkan informasi berikut:
- Nama:
td-demo-hello-world-template
- Boot disk: Debian GNU/Linux 10 (buster)
- Akun layanan: Akun layanan default Compute Engine
- Cakupan akses: Izinkan akses penuh ke semua Cloud API
- Nama:
- Klik Management, Security, Disks, Networking, Sole Tenancy.
- Pada tab Networking, di kolom Network tags, tambahkan
tag
td-http-server
. Di tab Management, salin skrip berikut ke tab Startup skrip.
#! /bin/bash sudo apt-get update -y sudo apt-get install apache2 -y sudo service apache2 restart echo '<!doctype html><html><body><h1>'`/bin/hostname`'</h1></body></html>' | sudo tee /var/www/html/index.html
Klik Create.
gcloud
Buat template instance:
gcloud compute instance-templates create td-demo-hello-world-template \ --machine-type=n1-standard-1 \ --boot-disk-size=20GB \ --image-family=debian-10 \ --image-project=debian-cloud \ --scopes=https://www.googleapis.com/auth/cloud-platform \ --tags=td-http-server \ --metadata=startup-script="#! /bin/bash sudo apt-get update -y sudo apt-get install apache2 -y sudo service apache2 restart sudo mkdir -p /var/www/html/ echo '<!doctype html><html><body><h1>'`/bin/hostname`'</h1></body></html>' | sudo tee /var/www/html/index.html"
Membuat grup instance terkelola
Di bagian ini, Anda akan menentukan bahwa grup instance terkelola selalu memiliki dua dari layanan pengujian. Ini untuk tujuan demonstrasi. Cloud Service Mesh mendukung grup instance terkelola dengan penskalaan otomatis.
Konsol
Di Konsol Google Cloud, buka halaman Instance groups.
- Klik Create instance group.
- Pilih New managed instance group (stateless). Untuk selengkapnya informasi tambahan, lihat MIG stateless atau stateful.
- Masukkan
td-demo-hello-world-mig
untuk nama instance terkelola grup, lalu pilih zonaus-central1-a
. - Di bagian Instance template, pilih
td-demo-hello-world-template
, yang merupakan template instance yang Anda buat. - Di bagian Autoscaling mode, pilih Don't autoscale.
- Pada Number of instances, tentukan setidaknya dua sebagai jumlah yang ingin Anda buat di grup.
- Klik Create.
gcloud
Menggunakan gcloud CLI untuk membuat grup instance terkelola dengan template instance yang sebelumnya Anda buat.
gcloud compute instance-groups managed create td-demo-hello-world-mig \ --zone us-central1-a \ --size=2 \ --template=td-demo-hello-world-template
Membuat template instance dan grup instance terkelola tempat Envoy di-deploy
Gunakan petunjuk di bagian ini untuk membuat template instance secara manual dan grup instance terkelola untuk Cloud Service Mesh. Grup instance terkelola membuat VM backend baru menggunakan penskalaan otomatis.
Contoh ini menunjukkan cara:
- Membuat template VM dengan konfigurasi Envoy lengkap dan layanan contoh yang menyediakan nama {i>host-<i}nya dengan menggunakan protokol HTTP.
- Konfigurasikan grup instance terkelola menggunakan template ini.
Membuat template instance
Pertama, buat template instance VM Compute Engine. Template ini
mengonfigurasi otomatis proxy file bantuan Envoy dan layanan web apache2 sampel melalui
parameter startup-script
.
Konsol
Di konsol Google Cloud, buka halaman Instance templates.
- Klik Create instance template.
Isi kolom sebagai berikut:
- Nama: td-vm-template
- Boot disk: Debian GNU/Linux 10 (buster)
- Akun layanan: Akun layanan default Compute Engine
- Cakupan akses: Izinkan akses penuh ke semua Cloud API
Di bagian Firewall, pilih kotak di samping Allow HTTP traffic dan Izinkan traffic HTTPS.
Klik Management, Security, Disks, Networking, Sole Tenancy.
Di tab Management, salin skrip berikut ke Kolom Startup script.
#! /usr/bin/env bash # Set variables export ENVOY_USER="envoy" export ENVOY_USER_UID="1337" export ENVOY_USER_GID="1337" export ENVOY_USER_HOME="/opt/envoy" export ENVOY_CONFIG="${ENVOY_USER_HOME}/config.yaml" export ENVOY_PORT="15001" export ENVOY_ADMIN_PORT="15000" export ENVOY_TRACING_ENABLED="false" export ENVOY_XDS_SERVER_CERT="/etc/ssl/certs/ca-certificates.crt" export ENVOY_ACCESS_LOG="/dev/stdout" export ENVOY_NODE_ID="$(cat /proc/sys/kernel/random/uuid)~$(hostname -i)" export BOOTSTRAP_TEMPLATE="${ENVOY_USER_HOME}/bootstrap_template.yaml" export GCE_METADATA_SERVER="169.254.169.254/32" export INTERCEPTED_CIDRS="*" export GCP_PROJECT_NUMBER=PROJECT_NUMBER export VPC_NETWORK_NAME=NETWORK_NAME export GCE_ZONE=$(curl -sS -H "Metadata-Flavor: Google" http://metadata.google.internal/computeMetadata/v1/instance/zone | cut -d"/" -f4) # Create system user account for Envoy binary sudo groupadd ${ENVOY_USER} \ --gid=${ENVOY_USER_GID} \ --system sudo adduser ${ENVOY_USER} \ --uid=${ENVOY_USER_UID} \ --gid=${ENVOY_USER_GID} \ --home=${ENVOY_USER_HOME} \ --disabled-login \ --system # Download and extract the Cloud Service Mesh tar.gz file cd ${ENVOY_USER_HOME} sudo curl -sL https://storage.googleapis.com/traffic-director/traffic-director-xdsv3.tar.gz -o traffic-director-xdsv3.tar.gz sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/bootstrap_template.yaml \ -C bootstrap_template.yaml \ --strip-components 1 sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/iptables.sh \ -C iptables.sh \ --strip-components 1 sudo rm traffic-director-xdsv3.tar.gz # Generate Envoy bootstrap configuration cat "${BOOTSTRAP_TEMPLATE}" \ | sed -e "s|ENVOY_NODE_ID|${ENVOY_NODE_ID}|g" \ | sed -e "s|ENVOY_ZONE|${GCE_ZONE}|g" \ | sed -e "s|VPC_NETWORK_NAME|${VPC_NETWORK_NAME}|g" \ | sed -e "s|CONFIG_PROJECT_NUMBER|${GCP_PROJECT_NUMBER}|g" \ | sed -e "s|ENVOY_PORT|${ENVOY_PORT}|g" \ | sed -e "s|ENVOY_ADMIN_PORT|${ENVOY_ADMIN_PORT}|g" \ | sed -e "s|XDS_SERVER_CERT|${ENVOY_XDS_SERVER_CERT}|g" \ | sed -e "s|TRACING_ENABLED|${ENVOY_TRACING_ENABLED}|g" \ | sed -e "s|ACCESSLOG_PATH|${ENVOY_ACCESS_LOG}|g" \ | sed -e "s|BACKEND_INBOUND_PORTS|${BACKEND_INBOUND_PORTS}|g" \ | sudo tee "${ENVOY_CONFIG}" # Install Envoy binary curl -sL "https://deb.dl.getenvoy.io/public/gpg.8115BA8E629CC074.key" | sudo gpg --dearmor -o /usr/share/keyrings/getenvoy-keyring.gpg echo a077cb587a1b622e03aa4bf2f3689de14658a9497a9af2c427bba5f4cc3c4723 /usr/share/keyrings/getenvoy-keyring.gpg | sha256sum --check echo "deb [arch=amd64 signed-by=/usr/share/keyrings/getenvoy-keyring.gpg] https://deb.dl.getenvoy.io/public/deb/debian $(lsb_release -cs) main" | sudo tee /etc/apt/sources.list.d/getenvoy.list sudo apt update sudo apt -y install getenvoy-envoy # Run Envoy as systemd service sudo systemd-run --uid=${ENVOY_USER_UID} --gid=${ENVOY_USER_GID} \ --working-directory=${ENVOY_USER_HOME} --unit=envoy.service \ bash -c "/usr/bin/envoy --config-path ${ENVOY_CONFIG} | tee" # Configure iptables for traffic interception and redirection sudo ${ENVOY_USER_HOME}/iptables.sh \ -p "${ENVOY_PORT}" \ -u "${ENVOY_USER_UID}" \ -g "${ENVOY_USER_GID}" \ -m "REDIRECT" \ -i "${INTERCEPTED_CIDRS}" \ -x "${GCE_METADATA_SERVER}"
Klik Buat untuk membuat template.
gcloud
Membuat template instance.
gcloud compute instance-templates create td-vm-template \ --scopes=https://www.googleapis.com/auth/cloud-platform \ --tags=http-td-tag,http-server,https-server \ --image-family=debian-10 \ --image-project=debian-cloud \ --metadata=startup-script='#! /usr/bin/env bash # Set variables export ENVOY_USER="envoy" export ENVOY_USER_UID="1337" export ENVOY_USER_GID="1337" export ENVOY_USER_HOME="/opt/envoy" export ENVOY_CONFIG="${ENVOY_USER_HOME}/config.yaml" export ENVOY_PORT="15001" export ENVOY_ADMIN_PORT="15000" export ENVOY_TRACING_ENABLED="false" export ENVOY_XDS_SERVER_CERT="/etc/ssl/certs/ca-certificates.crt" export ENVOY_ACCESS_LOG="/dev/stdout" export ENVOY_NODE_ID="$(cat /proc/sys/kernel/random/uuid)~$(hostname -i)" export BOOTSTRAP_TEMPLATE="${ENVOY_USER_HOME}/bootstrap_template.yaml" export GCE_METADATA_SERVER="169.254.169.254/32" export INTERCEPTED_CIDRS="*" export GCP_PROJECT_NUMBER=PROJECT_NUMBER export VPC_NETWORK_NAME=NETWORK_NAME export GCE_ZONE=$(curl -sS -H "Metadata-Flavor: Google" http://metadata.google.internal/computeMetadata/v1/instance/zone | cut -d"/" -f4) # Create system user account for Envoy binary sudo groupadd ${ENVOY_USER} \ --gid=${ENVOY_USER_GID} \ --system sudo adduser ${ENVOY_USER} \ --uid=${ENVOY_USER_UID} \ --gid=${ENVOY_USER_GID} \ --home=${ENVOY_USER_HOME} \ --disabled-login \ --system # Download and extract the Cloud Service Mesh tar.gz file cd ${ENVOY_USER_HOME} sudo curl -sL https://storage.googleapis.com/traffic-director/traffic-director-xdsv3.tar.gz -o traffic-director-xdsv3.tar.gz sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/bootstrap_template.yaml \ -C bootstrap_template.yaml \ --strip-components 1 sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/iptables.sh \ -C iptables.sh \ --strip-components 1 sudo rm traffic-director-xdsv3.tar.gz # Generate Envoy bootstrap configuration cat "${BOOTSTRAP_TEMPLATE}" \ | sed -e "s|ENVOY_NODE_ID|${ENVOY_NODE_ID}|g" \ | sed -e "s|ENVOY_ZONE|${GCE_ZONE}|g" \ | sed -e "s|VPC_NETWORK_NAME|${VPC_NETWORK_NAME}|g" \ | sed -e "s|CONFIG_PROJECT_NUMBER|${GCP_PROJECT_NUMBER}|g" \ | sed -e "s|ENVOY_PORT|${ENVOY_PORT}|g" \ | sed -e "s|ENVOY_ADMIN_PORT|${ENVOY_ADMIN_PORT}|g" \ | sed -e "s|XDS_SERVER_CERT|${ENVOY_XDS_SERVER_CERT}|g" \ | sed -e "s|TRACING_ENABLED|${ENVOY_TRACING_ENABLED}|g" \ | sed -e "s|ACCESSLOG_PATH|${ENVOY_ACCESS_LOG}|g" \ | sed -e "s|BACKEND_INBOUND_PORTS|${BACKEND_INBOUND_PORTS}|g" \ | sudo tee "${ENVOY_CONFIG}" # Install Envoy binary curl -sL "https://deb.dl.getenvoy.io/public/gpg.8115BA8E629CC074.key" | sudo gpg --dearmor -o /usr/share/keyrings/getenvoy-keyring.gpg echo a077cb587a1b622e03aa4bf2f3689de14658a9497a9af2c427bba5f4cc3c4723 /usr/share/keyrings/getenvoy-keyring.gpg | sha256sum --check echo "deb [arch=amd64 signed-by=/usr/share/keyrings/getenvoy-keyring.gpg] https://deb.dl.getenvoy.io/public/deb/debian $(lsb_release -cs) main" | sudo tee /etc/apt/sources.list.d/getenvoy.list sudo apt update sudo apt -y install getenvoy-envoy # Run Envoy as systemd service sudo systemd-run --uid=${ENVOY_USER_UID} --gid=${ENVOY_USER_GID} \ --working-directory=${ENVOY_USER_HOME} --unit=envoy.service \ bash -c "/usr/bin/envoy --config-path ${ENVOY_CONFIG} | tee" # Configure iptables for traffic interception and redirection sudo ${ENVOY_USER_HOME}/iptables.sh \ -p "${ENVOY_PORT}" \ -u "${ENVOY_USER_UID}" \ -g "${ENVOY_USER_GID}" \ -m "REDIRECT" \ -i "${INTERCEPTED_CIDRS}" \ -x "${GCE_METADATA_SERVER}" '
Membuat grup instance terkelola
Jika Anda tidak memiliki grup {i>instance <i} terkelola dengan layanan yang sedang berjalan, membuat grup instance terkelola, dengan menggunakan template VM seperti yang ditunjukkan di bagian sebelumnya. Contoh ini menggunakan template instance yang dibuat di bagian sebelumnya untuk mendemonstrasikan fungsionalitasnya. Anda tidak perlu menggunakan template instance.
Konsol
Di Konsol Google Cloud, buka halaman Instance groups.
- Klik Create an instance group. Secara {i>default<i}, Anda melihat halaman untuk membuat grup instance terkelola.
- Pilih Grup instance terkelola (stateless) baru. Untuk selengkapnya informasi tambahan, lihat MIG stateless atau stateful.
- Masukkan
td-vm-mig-us-central1
untuk nama grup instance terkelola, lalu pilih zonaus-central1-a
. - Di bagian Instance template, pilih template instance yang Anda buat.
- Tentukan 2 sebagai jumlah instance yang ingin Anda buat di grup.
- Klik Create.
gcloud
Menggunakan gcloud CLI untuk membuat grup instance terkelola dengan template instance yang sebelumnya Anda buat.
gcloud compute instance-groups managed create td-vm-mig-us-central1 \ --zone us-central1-a --size=2 --template=td-vm-template
Mengonfigurasi Cloud Service Mesh dengan komponen Google Cloud Load Balancing
Petunjuk di bagian ini menunjukkan cara mengonfigurasi Cloud Service Mesh agar Envoy melakukan proxy pada load balancing traffic keluar di dua backend instance Compute Engine. Anda mengonfigurasi komponen berikut:
- Health check. Untuk informasi selengkapnya tentang health check, baca Ringkasan health check dan Membuat health check.
- Aturan firewall, untuk mengaktifkan pemeriksaan health check agar mencapai backend. Untuk mengetahui informasi selengkapnya, lihat Ringkasan health check.
- Layanan backend. Untuk informasi selengkapnya tentang layanan backend, lihat Ringkasan layanan backend.
- Peta aturan pemilihan rute. Termasuk di antaranya membuat aturan penerusan dan peta URL. Untuk mengetahui informasi selengkapnya, lihat Ringkasan aturan penerusan dan Menggunakan peta URL.
Membuat health check
Gunakan petunjuk berikut untuk membuat health check. Untuk informasi selengkapnya, lihat Membuat health check.
Konsol
Di konsol Google Cloud, buka halaman Health checks.
- Klik Create health check.
- Untuk nama, masukkan
td-vm-health-check
. - Untuk protokol, pilih HTTP.
- Klik Create.
gcloud
Buat health check:
gcloud compute health-checks create http td-vm-health-check
Buat aturan firewall:
gcloud compute firewall-rules create fw-allow-health-checks \ --action ALLOW \ --direction INGRESS \ --source-ranges 35.191.0.0/16,130.211.0.0/22 \ --target-tags http-td-tag,http-server,https-server \ --rules tcp
Membuat layanan backend
Jika menggunakan Google Cloud CLI, Anda harus menetapkan backend
sebagai penyedia layanan
layanan backend
dengan skema load balancing INTERNAL_SELF_MANAGED
. Menambahkan respons
dan grup instance terkelola atau tidak terkelola ke layanan backend. Catatan
bahwa contoh ini menggunakan grup instance terkelola dengan Compute Engine
Template VM yang menjalankan contoh layanan HTTP yang dibuat di
Buat grup instance terkelola.
Konsol
Di konsol Google Cloud, buka halaman Cloud Service Mesh.
- Di tab Services, klik Create Service.
- Klik Lanjutkan.
- Untuk nama layanan, masukkan
td-vm-service
. - Pilih jaringan VPC yang benar.
- Pastikan Backend type adalah Instance groups.
- Pilih grup instance terkelola yang Anda buat.
- Masukkan Nomor port yang benar.
- Pilih Utilization atau Rate sebagai Balancing mode. Tujuan nilai defaultnya adalah Rate.
- Klik Done.
- Pilih health check yang Anda buat.
- Klik Simpan dan lanjutkan.
- Klik Buat.
gcloud
Buat layanan backend:
gcloud compute backend-services create td-vm-service \ --global \ --load-balancing-scheme=INTERNAL_SELF_MANAGED \ --health-checks td-vm-health-check
Tambahkan backend ke layanan backend:
gcloud compute backend-services add-backend td-vm-service \ --instance-group td-demo-hello-world-mig \ --instance-group-zone us-central1-a \ --global
Membuat peta aturan pemilihan rute
Peta aturan pemilihan rute menentukan cara Cloud Service Mesh merutekan traffic di {i>mesh.<i}
Gunakan petunjuk ini untuk membuat aturan rute, aturan penerusan, proxy target, dan alamat IP internal untuk konfigurasi Cloud Service Mesh Anda.
Traffic yang dikirim ke alamat IP internal dicegat oleh proxy Envoy dan dikirim ke layanan yang sesuai sesuai dengan aturan {i>host<i} dan jalur.
Aturan penerusan dibuat sebagai aturan penerusan global dengan
load-balancing-scheme
ditetapkan ke INTERNAL_SELF_MANAGED
.
Anda dapat menetapkan alamat aturan penerusan ke 0.0.0.0
. Jika Anda melakukannya,
traffic dirutekan berdasarkan nama host HTTP dan informasi jalur
dikonfigurasikan di peta URL, terlepas dari
alamat IP tujuan permintaan. Dalam hal ini, nama {i>host<i} dari
layanan Anda, seperti yang dikonfigurasikan dalam aturan {i>host<i}, harus unik dalam
konfigurasi mesh layanan. Artinya, Anda tidak dapat
memiliki dua perbedaan
layanan, dengan kumpulan backend berbeda, yang keduanya menggunakan nama {i>host<i} yang sama.
Atau, Anda dapat mengaktifkan perutean berdasarkan
VIP tujuan layanan. Jika Anda mengonfigurasi VIP layanan
sebagai parameter address
dari aturan penerusan, hanya permintaan yang ditujukan
ke alamat ini dirutekan berdasarkan parameter HTTP yang ditentukan dalam
Peta URL.
Contoh ini menggunakan 10.0.0.1
sebagai parameter alamat, yang berarti bahwa
untuk layanan Anda dilakukan
berdasarkan lokasi aktual
VIP tujuan layanan.
Konsol
Di Konsol Google Cloud, proxy target digabungkan dengan aturan penerusan. Saat Anda membuat aturan penerusan, secara otomatis membuat {i>proxy<i} HTTP target dan melampirkannya ke peta URL.
Di konsol Google Cloud, buka halaman Cloud Service Mesh.
- Pada tab Routing rule maps, klik Create Routing Rule Map.
- Masukkan nama.
- Klik Tambahkan Aturan Penerusan.
- Untuk nama aturan penerusan, masukkan
td-vm-forwarding-rule
. - Pilih jaringan Anda.
Pilih Internal IP Anda. Traffic yang dikirim ke alamat IP ini dicegat oleh {i>proxy<i} Envoy dan dikirim ke layanan yang sesuai berdasarkan pada aturan host dan jalur.
Aturan penerusan dibuat sebagai aturan penerusan global dengan
load-balancing-scheme
ditetapkan keINTERNAL_SELF_MANAGED
.Pada kolom Custom IP, ketik
10.0.0.1
. Saat VM Anda mengirim ke alamat ini alamat IP, {i>proxy<i} Envoy mencegatnya dan mengirimkannya ke endpoint layanan backend sesuai dengan aturan pengelolaan traffic yang ditentukan di peta URL.Setiap aturan penerusan di jaringan VPC harus memiliki alamat IP yang unik dan port per jaringan VPC. Jika Anda membuat lebih dari satu aturan penerusan alamat IP dan porta yang sama di Jaringan VPC tertentu, hanya aturan penerusan pertama valid. Atribut lainnya akan diabaikan. Jika
10.0.0.1
bukan yang tersedia di jaringan Anda, pilih alamat IP yang berbeda.Pastikan Port ditetapkan ke
80
.Klik Simpan.
Di bagian Aturan pemilihan rute, pilih Aturan host dan jalur sederhana.
Di bagian Host and path rules, pilih
td-vm-service
sebagai Service.Klik Add host and path rule.
Di Hosts, masukkan
hello-world
.Di Service, pilih
td-vm-service
.Klik Simpan.
gcloud
Buat peta URL yang menggunakan layanan backend:
gcloud compute url-maps create td-vm-url-map \ --default-service td-vm-service
Buat pencocok jalur peta URL dan aturan host untuk mengarahkan traffic untuk berdasarkan nama {i>host<i} dan jalur. Contoh ini menggunakan
service-test
sebagai nama layanan dan pencocok jalur default yang cocok dengan semua jalur untuk host ini (/*
).gcloud compute url-maps add-path-matcher td-vm-url-map \ --default-service td-vm-service --path-matcher-name td-vm-path-matcher
gcloud compute url-maps add-host-rule td-vm-url-map --hosts service-test \ --path-matcher-name td-vm-path-matcher \ --hosts hello-world
Buat proxy HTTP target:
gcloud compute target-http-proxies create td-vm-proxy \ --url-map td-vm-url-map
Membuat aturan penerusan. Aturan penerusan harus bersifat global dan harus dibuat dengan nilai
load-balancing-scheme
ditetapkan keINTERNAL_SELF_MANAGED
.gcloud compute forwarding-rules create td-vm-forwarding-rule \ --global \ --load-balancing-scheme=INTERNAL_SELF_MANAGED \ --address=10.0.0.1 \ --target-http-proxy=td-vm-proxy \ --ports 80 \ --network default
Pada tahap ini, Cloud Service Mesh dikonfigurasi untuk melakukan load balancing pada traffic untuk layanan yang ditentukan dalam peta URL di seluruh backend dalam layanan di grup instance.
Memverifikasi konfigurasi
Di bagian terakhir ini, panduan penyiapan Cloud Service Mesh untuk
VM Compute Engine, Anda menguji traffic yang
dikirim dari VM klien yang ditujukan
ke aturan penerusan, VIP disadap dan dialihkan ke {i>proxy<i} Envoy,
yang kemudian mengarahkan permintaan Anda ke VM yang menghosting layanan Hello World
.
Pertama, pastikan bahwa backend responsif dengan menggunakan langkah-langkah berikut:
Konsol
Di konsol Google Cloud, buka halaman Cloud Service Mesh.
Ringkasan menunjukkan apakah layanan responsif atau tidak.
- Klik nama layanan. Halaman Detail layanan berisi informasi tentang kondisi backend.
- Jika backend tidak responsif, Anda dapat meresetnya dengan mengklik namanya backend, lalu mengklik Reset pada Detail instance VM halaman.
gcloud
Menggunakan compute backend-services
get-health
untuk memverifikasi bahwa backend responsif:
gcloud compute backend-services get-health td-vm-service \ --global \ --format=get(name, healthStatus)
Setelah memverifikasi status respons backend Anda, login ke VM klien yang
telah dikonfigurasi untuk mencegat lalu lintas dan mengalihkannya ke Envoy. Kirim curl
ke VIP yang terkait dengan peta aturan perutean Anda. Envoy memeriksa
permintaan curl
, menentukan layanan mana yang harus diselesaikan, dan mengirimkan
ke backend yang terkait dengan layanan tersebut.
Konsol
Di Konsol Google Cloud, buka halaman Instance groups.
- Pilih grup instance
td-vm-mig-us-central1
. - Di bagian Connect, klik SSH.
Setelah login ke VM klien, gunakan alat
curl
untuk mengirim permintaan ke layananHello World
melalui Envoy:curl -H "Host: hello-world" http://10.0.0.1/
Jika Anda melakukan perintah ini berulang kali, Anda akan melihat respons HTML yang berbeda
yang berisi nama host backend di grup instance terkelola Hello World
.
Hal ini karena Envoy menggunakan load
balancing {i>round robin<i}, yang merupakan beban default
algoritma balancing, saat mengirim traffic ke backend layanan Hello World
.
Setelah konfigurasi selesai, setiap VM Compute Engine yang memiliki proxy file bantuan dapat mengakses layanan yang dikonfigurasi di Cloud Service Mesh menggunakan dan berperforma tinggi karena merupakan protokol biner.
Jika Anda mengikuti contoh spesifik dalam panduan ini dengan menggunakan
Template VM Compute Engine dengan server HTTP demonstrasi dan
nama host layanan service-test
, gunakan langkah-langkah ini untuk memverifikasi konfigurasi:
- Login ke salah satu host VM yang telah menginstal proxy file bantuan.
- Jalankan perintah
curl -H 'Host: service-test' 10.0.0.1
. Permintaan ini menampilkan nama host backend grup instance terkelola yang menjalankan permintaan.
Pada langkah 2, perhatikan bahwa Anda dapat menggunakan alamat IP apa pun. Misalnya, perintah
curl -I -H 'Host: service-test' 1.2.3.4
akan berfungsi di Langkah 2.
Hal ini karena aturan penerusan memiliki parameter alamat yang ditetapkan ke 0.0.0.0
,
yang menginstruksikan Cloud Service Mesh agar sesuai berdasarkan host yang ditentukan di
peta URL. Dalam contoh konfigurasi, nama host adalah service-test
.
Langkah selanjutnya
- Pelajari pengelolaan traffic lanjutan.
- Pelajari cara memecahkan masalah deployment Cloud Service Mesh.
- Pelajari cara menyiapkan kemampuan observasi dengan Envoy.