Menyiapkan VM menggunakan deployment Envoy manual

Dokumen ini ditujukan untuk administrator jaringan yang ingin menyiapkan Cloud Service Mesh secara manual Proses manual adalah mekanisme lama yang dimaksudkan hanya untuk pengguna tingkat lanjut yang menyiapkan Cloud Service Mesh dengan beban balancing API.

Sebaiknya siapkan Cloud Service Mesh menggunakan API pemilihan rute layanan, bukan API load balancing versi lama. Jika Anda harus menggunakan load balancing API, sebaiknya gunakan deployment Envoy otomatis bukan proses manual yang dijelaskan di halaman ini.

Sebelum mengikuti petunjuk dalam panduan ini, selesaikan prasyarat tugas yang dijelaskan dalam Bersiaplah untuk menyiapkan API pemilihan rute layanan dengan Envoy dan workload tanpa proxy.

Panduan ini menunjukkan cara men-deploy bidang data yang terdiri dari Envoy secara manual proxy file bantuan dengan virtual machine (VM) Compute Engine, konfigurasikan menggunakan Cloud Service Mesh, dan verifikasi penyiapan Anda untuk memastikannya berfungsi dengan benar. Proses ini melibatkan:

  1. Membuat layanan pengujian.
  2. Men-deploy bidang data sederhana di Compute Engine menggunakan proxy Envoy.
  3. Menyiapkan Cloud Service Mesh menggunakan Compute Engine API, yang mengaktifkan Cloud Service Mesh untuk mengonfigurasi proxy file bantuan Envoy Anda.
  4. Login ke VM yang menjalankan proxy Envoy dan kirim permintaan ke backend yang di-load balanced melalui proxy Envoy.

Contoh konfigurasi dalam dokumen ini adalah untuk tujuan demonstrasi. Sebagai lingkungan produksi, Anda mungkin perlu memasang komponen tambahan, berdasarkan lingkungan dan persyaratan Anda.

Ringkasan proses konfigurasi

Bagian ini menyediakan proses konfigurasi manual untuk layanan yang menjalankan VM Compute Engine. Proses konfigurasi untuk VM klien terdiri dari penyiapan proxy file bantuan dan intersepsi traffic pada dengan host VM Compute Engine. Kemudian, Anda mengonfigurasi load balancing menggunakan Google Cloud Load Balancing API.

Bagian ini memberikan informasi tentang cara mendapatkan dan memasukkan proxy Envoy dari sumber pihak ketiga yang tidak dikelola oleh Google.

Saat aplikasi mengirimkan traffic ke layanan yang telah dikonfigurasi di di Cloud Service Mesh, traffic dicegat dan dialihkan ke xDS Proxy file bantuan yang kompatibel dengan API, lalu dilakukan load balancing ke backend sesuai pada konfigurasi dalam komponen Google Cloud Load Balancing. Untuk informasi selengkapnya tentang jaringan {i>host<i} dan intersepsi lalu lintas, baca Intersepsi traffic proxy file bantuan di Cloud Service Mesh.

Untuk setiap host VM yang memerlukan akses ke layanan Cloud Service Mesh, lakukan langkah-langkah berikut:

  1. Menetapkan akun layanan ke VM.

  2. Tetapkan cakupan akses API VM untuk mengizinkan akses penuh ke Google Cloud API.

    • Saat Anda membuat VM, di bagian Identity and API access, klik Allow full access to all Cloud APIs.

      Buka halaman VM instances.

    • Dengan gcloud CLI, tentukan hal berikut:

      --scopes=https://www.googleapis.com/auth/cloud-platform.

  3. Izinkan koneksi keluar ke trafficdirector.googleapis.com (TCP, port 443) dari VM, sehingga proxy file bantuan dapat terhubung ke Bidang kontrol Cloud Service Mesh melalui gRPC. Koneksi keluar ke port 443 diaktifkan secara default.

  4. Deploy proxy file bantuan yang kompatibel dengan xDS API (seperti Envoy), dengan konfigurasi bootstrap mengarah ke trafficdirector.googleapis.com:443 sebagai server xDS-nya. Untuk mendapatkan contoh konfigurasi bootstrap buka file traffic-director-xdsv3.tar.gz yang dikompresi dan ubah file bootstrap_template.yaml agar sesuai dengan kebutuhan Anda.

  5. Mengalihkan traffic IP yang ditujukan ke layanan ke proxy file bantuan porta pemroses intersepsi.

Membuat layanan pengujian Hello World

Bagian ini menunjukkan cara membuat layanan pengujian sederhana yang menampilkan nama host VM yang menyampaikan permintaan dari klien. Layanan pengujian tidak rumit; ini adalah server web yang di-deploy di Compute Engine grup instance terkelola.

Membuat template instance

Template instance yang Anda buat akan mengonfigurasi server web apache2 contoh menggunakan parameter startup-script.

Konsol

  1. Di konsol Google Cloud, buka halaman Instance templates.

    Buka Instance templates

  2. Klik Create instance template.
  3. Di kolom, masukkan informasi berikut:
    • Nama: td-demo-hello-world-template
    • Boot disk: Debian GNU/Linux 10 (buster)
    • Akun layanan: Akun layanan default Compute Engine
    • Cakupan akses: Izinkan akses penuh ke semua Cloud API
  4. Klik Management, Security, Disks, Networking, Sole Tenancy.
  5. Pada tab Networking, di kolom Network tags, tambahkan tag td-http-server.
  6. Di tab Management, salin skrip berikut ke tab Startup skrip.

    #! /bin/bash
    sudo apt-get update -y
    sudo apt-get install apache2 -y
    sudo service apache2 restart
    echo '<!doctype html><html><body><h1>'`/bin/hostname`'</h1></body></html>' | sudo tee /var/www/html/index.html
    
  7. Klik Create.

gcloud

Buat template instance:

gcloud compute instance-templates create td-demo-hello-world-template \
  --machine-type=n1-standard-1 \
  --boot-disk-size=20GB \
  --image-family=debian-10 \
  --image-project=debian-cloud \
  --scopes=https://www.googleapis.com/auth/cloud-platform \
  --tags=td-http-server \
  --metadata=startup-script="#! /bin/bash
sudo apt-get update -y
sudo apt-get install apache2 -y
sudo service apache2 restart
sudo mkdir -p /var/www/html/
echo '<!doctype html><html><body><h1>'`/bin/hostname`'</h1></body></html>' | sudo tee /var/www/html/index.html"

Membuat grup instance terkelola

Di bagian ini, Anda akan menentukan bahwa grup instance terkelola selalu memiliki dua dari layanan pengujian. Ini untuk tujuan demonstrasi. Cloud Service Mesh mendukung grup instance terkelola dengan penskalaan otomatis.

Konsol

  1. Di Konsol Google Cloud, buka halaman Instance groups.

    Buka Instance groups

  2. Klik Create instance group.
  3. Pilih New managed instance group (stateless). Untuk selengkapnya informasi tambahan, lihat MIG stateless atau stateful.
  4. Masukkan td-demo-hello-world-mig untuk nama instance terkelola grup, lalu pilih zona us-central1-a.
  5. Di bagian Instance template, pilih td-demo-hello-world-template, yang merupakan template instance yang Anda buat.
  6. Di bagian Autoscaling mode, pilih Don't autoscale.
  7. Pada Number of instances, tentukan setidaknya dua sebagai jumlah yang ingin Anda buat di grup.
  8. Klik Create.

gcloud

Menggunakan gcloud CLI untuk membuat grup instance terkelola dengan template instance yang sebelumnya Anda buat.

gcloud compute instance-groups managed create td-demo-hello-world-mig \
  --zone us-central1-a \
  --size=2 \
  --template=td-demo-hello-world-template

Membuat template instance dan grup instance terkelola tempat Envoy di-deploy

Gunakan petunjuk di bagian ini untuk membuat template instance secara manual dan grup instance terkelola untuk Cloud Service Mesh. Grup instance terkelola membuat VM backend baru menggunakan penskalaan otomatis.

Contoh ini menunjukkan cara:

  • Membuat template VM dengan konfigurasi Envoy lengkap dan layanan contoh yang menyediakan nama {i>host-<i}nya dengan menggunakan protokol HTTP.
  • Konfigurasikan grup instance terkelola menggunakan template ini.

Membuat template instance

Pertama, buat template instance VM Compute Engine. Template ini mengonfigurasi otomatis proxy file bantuan Envoy dan layanan web apache2 sampel melalui parameter startup-script.

Konsol

  1. Di konsol Google Cloud, buka halaman Instance templates.

    Buka Instance templates

  2. Klik Create instance template.
  3. Isi kolom sebagai berikut:

    • Nama: td-vm-template
    • Boot disk: Debian GNU/Linux 10 (buster)
    • Akun layanan: Akun layanan default Compute Engine
    • Cakupan akses: Izinkan akses penuh ke semua Cloud API
  4. Di bagian Firewall, pilih kotak di samping Allow HTTP traffic dan Izinkan traffic HTTPS.

  5. Klik Management, Security, Disks, Networking, Sole Tenancy.

  6. Di tab Management, salin skrip berikut ke Kolom Startup script.

    #! /usr/bin/env bash
    
    # Set variables
    export ENVOY_USER="envoy"
    export ENVOY_USER_UID="1337"
    export ENVOY_USER_GID="1337"
    export ENVOY_USER_HOME="/opt/envoy"
    export ENVOY_CONFIG="${ENVOY_USER_HOME}/config.yaml"
    export ENVOY_PORT="15001"
    export ENVOY_ADMIN_PORT="15000"
    export ENVOY_TRACING_ENABLED="false"
    export ENVOY_XDS_SERVER_CERT="/etc/ssl/certs/ca-certificates.crt"
    export ENVOY_ACCESS_LOG="/dev/stdout"
    export ENVOY_NODE_ID="$(cat /proc/sys/kernel/random/uuid)~$(hostname -i)"
    export BOOTSTRAP_TEMPLATE="${ENVOY_USER_HOME}/bootstrap_template.yaml"
    export GCE_METADATA_SERVER="169.254.169.254/32"
    export INTERCEPTED_CIDRS="*"
    export GCP_PROJECT_NUMBER=PROJECT_NUMBER
    export VPC_NETWORK_NAME=NETWORK_NAME
    export GCE_ZONE=$(curl -sS -H "Metadata-Flavor: Google" http://metadata.google.internal/computeMetadata/v1/instance/zone | cut -d"/" -f4)
    
    # Create system user account for Envoy binary
    sudo groupadd ${ENVOY_USER} \
     --gid=${ENVOY_USER_GID} \
     --system
    sudo adduser ${ENVOY_USER} \
     --uid=${ENVOY_USER_UID} \
     --gid=${ENVOY_USER_GID} \
     --home=${ENVOY_USER_HOME} \
     --disabled-login \
     --system
    
    # Download and extract the Cloud Service Mesh tar.gz file
    cd ${ENVOY_USER_HOME}
    sudo curl -sL https://storage.googleapis.com/traffic-director/traffic-director-xdsv3.tar.gz -o traffic-director-xdsv3.tar.gz
    sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/bootstrap_template.yaml \
     -C bootstrap_template.yaml \
     --strip-components 1
    sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/iptables.sh \
     -C iptables.sh \
     --strip-components 1
    sudo rm traffic-director-xdsv3.tar.gz
    
    # Generate Envoy bootstrap configuration
    cat "${BOOTSTRAP_TEMPLATE}" \
     | sed -e "s|ENVOY_NODE_ID|${ENVOY_NODE_ID}|g" \
     | sed -e "s|ENVOY_ZONE|${GCE_ZONE}|g" \
     | sed -e "s|VPC_NETWORK_NAME|${VPC_NETWORK_NAME}|g" \
     | sed -e "s|CONFIG_PROJECT_NUMBER|${GCP_PROJECT_NUMBER}|g" \
     | sed -e "s|ENVOY_PORT|${ENVOY_PORT}|g" \
     | sed -e "s|ENVOY_ADMIN_PORT|${ENVOY_ADMIN_PORT}|g" \
     | sed -e "s|XDS_SERVER_CERT|${ENVOY_XDS_SERVER_CERT}|g" \
     | sed -e "s|TRACING_ENABLED|${ENVOY_TRACING_ENABLED}|g" \
     | sed -e "s|ACCESSLOG_PATH|${ENVOY_ACCESS_LOG}|g" \
     | sed -e "s|BACKEND_INBOUND_PORTS|${BACKEND_INBOUND_PORTS}|g" \
     | sudo tee "${ENVOY_CONFIG}"
    
    # Install Envoy binary
    curl -sL "https://deb.dl.getenvoy.io/public/gpg.8115BA8E629CC074.key" | sudo gpg --dearmor -o /usr/share/keyrings/getenvoy-keyring.gpg
    echo a077cb587a1b622e03aa4bf2f3689de14658a9497a9af2c427bba5f4cc3c4723 /usr/share/keyrings/getenvoy-keyring.gpg | sha256sum --check
    echo "deb [arch=amd64 signed-by=/usr/share/keyrings/getenvoy-keyring.gpg] https://deb.dl.getenvoy.io/public/deb/debian $(lsb_release -cs) main" | sudo tee /etc/apt/sources.list.d/getenvoy.list
    sudo apt update
    sudo apt -y install getenvoy-envoy
    
    # Run Envoy as systemd service
    sudo systemd-run --uid=${ENVOY_USER_UID} --gid=${ENVOY_USER_GID} \
     --working-directory=${ENVOY_USER_HOME} --unit=envoy.service \
     bash -c "/usr/bin/envoy --config-path ${ENVOY_CONFIG} | tee"
    
    # Configure iptables for traffic interception and redirection
    sudo ${ENVOY_USER_HOME}/iptables.sh \
     -p "${ENVOY_PORT}" \
     -u "${ENVOY_USER_UID}" \
     -g "${ENVOY_USER_GID}" \
     -m "REDIRECT" \
     -i "${INTERCEPTED_CIDRS}" \
     -x "${GCE_METADATA_SERVER}"
    
  7. Klik Buat untuk membuat template.

gcloud

Membuat template instance.

gcloud compute instance-templates create td-vm-template \
  --scopes=https://www.googleapis.com/auth/cloud-platform \
  --tags=http-td-tag,http-server,https-server \
  --image-family=debian-10 \
  --image-project=debian-cloud \
  --metadata=startup-script='#! /usr/bin/env bash

# Set variables
export ENVOY_USER="envoy"
export ENVOY_USER_UID="1337"
export ENVOY_USER_GID="1337"
export ENVOY_USER_HOME="/opt/envoy"
export ENVOY_CONFIG="${ENVOY_USER_HOME}/config.yaml"
export ENVOY_PORT="15001"
export ENVOY_ADMIN_PORT="15000"
export ENVOY_TRACING_ENABLED="false"
export ENVOY_XDS_SERVER_CERT="/etc/ssl/certs/ca-certificates.crt"
export ENVOY_ACCESS_LOG="/dev/stdout"
export ENVOY_NODE_ID="$(cat /proc/sys/kernel/random/uuid)~$(hostname -i)"
export BOOTSTRAP_TEMPLATE="${ENVOY_USER_HOME}/bootstrap_template.yaml"
export GCE_METADATA_SERVER="169.254.169.254/32"
export INTERCEPTED_CIDRS="*"
export GCP_PROJECT_NUMBER=PROJECT_NUMBER
export VPC_NETWORK_NAME=NETWORK_NAME
export GCE_ZONE=$(curl -sS -H "Metadata-Flavor: Google" http://metadata.google.internal/computeMetadata/v1/instance/zone | cut -d"/" -f4)

# Create system user account for Envoy binary
sudo groupadd ${ENVOY_USER} \
  --gid=${ENVOY_USER_GID} \
  --system
sudo adduser ${ENVOY_USER} \
  --uid=${ENVOY_USER_UID} \
  --gid=${ENVOY_USER_GID} \
  --home=${ENVOY_USER_HOME} \
  --disabled-login \
  --system
# Download and extract the Cloud Service Mesh tar.gz file
cd ${ENVOY_USER_HOME}
sudo curl -sL https://storage.googleapis.com/traffic-director/traffic-director-xdsv3.tar.gz -o traffic-director-xdsv3.tar.gz
sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/bootstrap_template.yaml \
  -C bootstrap_template.yaml \
  --strip-components 1
sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/iptables.sh \
  -C iptables.sh \
  --strip-components 1
sudo rm traffic-director-xdsv3.tar.gz

# Generate Envoy bootstrap configuration
cat "${BOOTSTRAP_TEMPLATE}" \
  | sed -e "s|ENVOY_NODE_ID|${ENVOY_NODE_ID}|g" \
  | sed -e "s|ENVOY_ZONE|${GCE_ZONE}|g" \
  | sed -e "s|VPC_NETWORK_NAME|${VPC_NETWORK_NAME}|g" \
  | sed -e "s|CONFIG_PROJECT_NUMBER|${GCP_PROJECT_NUMBER}|g" \
  | sed -e "s|ENVOY_PORT|${ENVOY_PORT}|g" \
  | sed -e "s|ENVOY_ADMIN_PORT|${ENVOY_ADMIN_PORT}|g" \
  | sed -e "s|XDS_SERVER_CERT|${ENVOY_XDS_SERVER_CERT}|g" \
  | sed -e "s|TRACING_ENABLED|${ENVOY_TRACING_ENABLED}|g" \
  | sed -e "s|ACCESSLOG_PATH|${ENVOY_ACCESS_LOG}|g" \
  | sed -e "s|BACKEND_INBOUND_PORTS|${BACKEND_INBOUND_PORTS}|g" \
  | sudo tee "${ENVOY_CONFIG}"

# Install Envoy binary
curl -sL "https://deb.dl.getenvoy.io/public/gpg.8115BA8E629CC074.key" | sudo gpg --dearmor -o /usr/share/keyrings/getenvoy-keyring.gpg
echo a077cb587a1b622e03aa4bf2f3689de14658a9497a9af2c427bba5f4cc3c4723 /usr/share/keyrings/getenvoy-keyring.gpg | sha256sum --check
echo "deb [arch=amd64 signed-by=/usr/share/keyrings/getenvoy-keyring.gpg] https://deb.dl.getenvoy.io/public/deb/debian $(lsb_release -cs) main" | sudo tee /etc/apt/sources.list.d/getenvoy.list
sudo apt update
sudo apt -y install getenvoy-envoy

# Run Envoy as systemd service
sudo systemd-run --uid=${ENVOY_USER_UID} --gid=${ENVOY_USER_GID} \
  --working-directory=${ENVOY_USER_HOME} --unit=envoy.service \
  bash -c "/usr/bin/envoy --config-path ${ENVOY_CONFIG} | tee"

# Configure iptables for traffic interception and redirection
sudo ${ENVOY_USER_HOME}/iptables.sh \
  -p "${ENVOY_PORT}" \
  -u "${ENVOY_USER_UID}" \
  -g "${ENVOY_USER_GID}" \
  -m "REDIRECT" \
  -i "${INTERCEPTED_CIDRS}" \
  -x "${GCE_METADATA_SERVER}"
'

Membuat grup instance terkelola

Jika Anda tidak memiliki grup {i>instance <i} terkelola dengan layanan yang sedang berjalan, membuat grup instance terkelola, dengan menggunakan template VM seperti yang ditunjukkan di bagian sebelumnya. Contoh ini menggunakan template instance yang dibuat di bagian sebelumnya untuk mendemonstrasikan fungsionalitasnya. Anda tidak perlu menggunakan template instance.

Konsol

  1. Di Konsol Google Cloud, buka halaman Instance groups.

    Buka Instance groups

  2. Klik Create an instance group. Secara {i>default<i}, Anda melihat halaman untuk membuat grup instance terkelola.
  3. Pilih Grup instance terkelola (stateless) baru. Untuk selengkapnya informasi tambahan, lihat MIG stateless atau stateful.
  4. Masukkan td-vm-mig-us-central1 untuk nama grup instance terkelola, lalu pilih zona us-central1-a.
  5. Di bagian Instance template, pilih template instance yang Anda buat.
  6. Tentukan 2 sebagai jumlah instance yang ingin Anda buat di grup.
  7. Klik Create.

gcloud

Menggunakan gcloud CLI untuk membuat grup instance terkelola dengan template instance yang sebelumnya Anda buat.

gcloud compute instance-groups managed create td-vm-mig-us-central1 \
    --zone us-central1-a --size=2 --template=td-vm-template

Mengonfigurasi Cloud Service Mesh dengan komponen Google Cloud Load Balancing

Petunjuk di bagian ini menunjukkan cara mengonfigurasi Cloud Service Mesh agar Envoy melakukan proxy pada load balancing traffic keluar di dua backend instance Compute Engine. Anda mengonfigurasi komponen berikut:

Membuat health check

Gunakan petunjuk berikut untuk membuat health check. Untuk informasi selengkapnya, lihat Membuat health check.

Konsol

  1. Di konsol Google Cloud, buka halaman Health checks.

    Buka Health checks

  2. Klik Create health check.
  3. Untuk nama, masukkan td-vm-health-check.
  4. Untuk protokol, pilih HTTP.
  5. Klik Create.

gcloud

  1. Buat health check:

    gcloud compute health-checks create http td-vm-health-check
    
  2. Buat aturan firewall:

    gcloud compute firewall-rules create fw-allow-health-checks \
      --action ALLOW \
      --direction INGRESS \
      --source-ranges 35.191.0.0/16,130.211.0.0/22 \
      --target-tags http-td-tag,http-server,https-server \
      --rules tcp
    

Membuat layanan backend

Jika menggunakan Google Cloud CLI, Anda harus menetapkan backend sebagai penyedia layanan layanan backend dengan skema load balancing INTERNAL_SELF_MANAGED. Menambahkan respons dan grup instance terkelola atau tidak terkelola ke layanan backend. Catatan bahwa contoh ini menggunakan grup instance terkelola dengan Compute Engine Template VM yang menjalankan contoh layanan HTTP yang dibuat di Buat grup instance terkelola.

Konsol

  1. Di konsol Google Cloud, buka halaman Cloud Service Mesh.

    Buka Cloud Service Mesh

  2. Di tab Services, klik Create Service.
  3. Klik Lanjutkan.
  4. Untuk nama layanan, masukkan td-vm-service.
  5. Pilih jaringan VPC yang benar.
  6. Pastikan Backend type adalah Instance groups.
  7. Pilih grup instance terkelola yang Anda buat.
  8. Masukkan Nomor port yang benar.
  9. Pilih Utilization atau Rate sebagai Balancing mode. Tujuan nilai defaultnya adalah Rate.
  10. Klik Done.
  11. Pilih health check yang Anda buat.
  12. Klik Simpan dan lanjutkan.
  13. Klik Buat.

gcloud

  1. Buat layanan backend:

    gcloud compute backend-services create td-vm-service \
      --global \
      --load-balancing-scheme=INTERNAL_SELF_MANAGED \
      --health-checks td-vm-health-check
    
  2. Tambahkan backend ke layanan backend:

    gcloud compute backend-services add-backend td-vm-service \
       --instance-group td-demo-hello-world-mig \
       --instance-group-zone us-central1-a \
       --global
    

Membuat peta aturan pemilihan rute

Peta aturan pemilihan rute menentukan cara Cloud Service Mesh merutekan traffic di {i>mesh.<i}

Gunakan petunjuk ini untuk membuat aturan rute, aturan penerusan, proxy target, dan alamat IP internal untuk konfigurasi Cloud Service Mesh Anda.

Traffic yang dikirim ke alamat IP internal dicegat oleh proxy Envoy dan dikirim ke layanan yang sesuai sesuai dengan aturan {i>host<i} dan jalur.

Aturan penerusan dibuat sebagai aturan penerusan global dengan load-balancing-scheme ditetapkan ke INTERNAL_SELF_MANAGED.

Anda dapat menetapkan alamat aturan penerusan ke 0.0.0.0. Jika Anda melakukannya, traffic dirutekan berdasarkan nama host HTTP dan informasi jalur dikonfigurasikan di peta URL, terlepas dari alamat IP tujuan permintaan. Dalam hal ini, nama {i>host<i} dari layanan Anda, seperti yang dikonfigurasikan dalam aturan {i>host<i}, harus unik dalam konfigurasi mesh layanan. Artinya, Anda tidak dapat memiliki dua perbedaan layanan, dengan kumpulan backend berbeda, yang keduanya menggunakan nama {i>host<i} yang sama.

Atau, Anda dapat mengaktifkan perutean berdasarkan VIP tujuan layanan. Jika Anda mengonfigurasi VIP layanan sebagai parameter address dari aturan penerusan, hanya permintaan yang ditujukan ke alamat ini dirutekan berdasarkan parameter HTTP yang ditentukan dalam Peta URL.

Contoh ini menggunakan 10.0.0.1 sebagai parameter alamat, yang berarti bahwa untuk layanan Anda dilakukan berdasarkan lokasi aktual VIP tujuan layanan.

Konsol

Di Konsol Google Cloud, proxy target digabungkan dengan aturan penerusan. Saat Anda membuat aturan penerusan, secara otomatis membuat {i>proxy<i} HTTP target dan melampirkannya ke peta URL.

  1. Di konsol Google Cloud, buka halaman Cloud Service Mesh.

    Buka Cloud Service Mesh

  2. Pada tab Routing rule maps, klik Create Routing Rule Map.
  3. Masukkan nama.
  4. Klik Tambahkan Aturan Penerusan.
  5. Untuk nama aturan penerusan, masukkan td-vm-forwarding-rule.
  6. Pilih jaringan Anda.
  7. Pilih Internal IP Anda. Traffic yang dikirim ke alamat IP ini dicegat oleh {i>proxy<i} Envoy dan dikirim ke layanan yang sesuai berdasarkan pada aturan host dan jalur.

    Aturan penerusan dibuat sebagai aturan penerusan global dengan load-balancing-scheme ditetapkan ke INTERNAL_SELF_MANAGED.

  8. Pada kolom Custom IP, ketik 10.0.0.1. Saat VM Anda mengirim ke alamat ini alamat IP, {i>proxy<i} Envoy mencegatnya dan mengirimkannya ke endpoint layanan backend sesuai dengan aturan pengelolaan traffic yang ditentukan di peta URL.

    Setiap aturan penerusan di jaringan VPC harus memiliki alamat IP yang unik dan port per jaringan VPC. Jika Anda membuat lebih dari satu aturan penerusan alamat IP dan porta yang sama di Jaringan VPC tertentu, hanya aturan penerusan pertama valid. Atribut lainnya akan diabaikan. Jika 10.0.0.1 bukan yang tersedia di jaringan Anda, pilih alamat IP yang berbeda.

  9. Pastikan Port ditetapkan ke 80.

  10. Klik Simpan.

  11. Di bagian Aturan pemilihan rute, pilih Aturan host dan jalur sederhana.

  12. Di bagian Host and path rules, pilih td-vm-service sebagai Service.

  13. Klik Add host and path rule.

  14. Di Hosts, masukkan hello-world.

  15. Di Service, pilih td-vm-service.

  16. Klik Simpan.

gcloud

  1. Buat peta URL yang menggunakan layanan backend:

    gcloud compute url-maps create td-vm-url-map \
       --default-service td-vm-service
    
  2. Buat pencocok jalur peta URL dan aturan host untuk mengarahkan traffic untuk berdasarkan nama {i>host<i} dan jalur. Contoh ini menggunakan service-test sebagai nama layanan dan pencocok jalur default yang cocok dengan semua jalur untuk host ini (/*).

    gcloud compute url-maps add-path-matcher td-vm-url-map \
       --default-service td-vm-service --path-matcher-name td-vm-path-matcher
    
    gcloud compute url-maps add-host-rule td-vm-url-map --hosts service-test \
       --path-matcher-name td-vm-path-matcher \
       --hosts hello-world
    
  3. Buat proxy HTTP target:

    gcloud compute target-http-proxies create td-vm-proxy \
       --url-map td-vm-url-map
    
  4. Membuat aturan penerusan. Aturan penerusan harus bersifat global dan harus dibuat dengan nilai load-balancing-scheme ditetapkan ke INTERNAL_SELF_MANAGED.

    gcloud compute forwarding-rules create td-vm-forwarding-rule \
       --global \
       --load-balancing-scheme=INTERNAL_SELF_MANAGED \
       --address=10.0.0.1 \
       --target-http-proxy=td-vm-proxy \
       --ports 80 \
       --network default
    

Pada tahap ini, Cloud Service Mesh dikonfigurasi untuk melakukan load balancing pada traffic untuk layanan yang ditentukan dalam peta URL di seluruh backend dalam layanan di grup instance.

Memverifikasi konfigurasi

Di bagian terakhir ini, panduan penyiapan Cloud Service Mesh untuk VM Compute Engine, Anda menguji traffic yang dikirim dari VM klien yang ditujukan ke aturan penerusan, VIP disadap dan dialihkan ke {i>proxy<i} Envoy, yang kemudian mengarahkan permintaan Anda ke VM yang menghosting layanan Hello World.

Pertama, pastikan bahwa backend responsif dengan menggunakan langkah-langkah berikut:

Konsol

  1. Di konsol Google Cloud, buka halaman Cloud Service Mesh.

    Buka Cloud Service Mesh

    Ringkasan menunjukkan apakah layanan responsif atau tidak.

  2. Klik nama layanan. Halaman Detail layanan berisi informasi tentang kondisi backend.
  3. Jika backend tidak responsif, Anda dapat meresetnya dengan mengklik namanya backend, lalu mengklik Reset pada Detail instance VM halaman.

gcloud

Menggunakan compute backend-services get-health untuk memverifikasi bahwa backend responsif:

gcloud compute backend-services get-health td-vm-service \
    --global \
    --format=get(name, healthStatus)

Setelah memverifikasi status respons backend Anda, login ke VM klien yang telah dikonfigurasi untuk mencegat lalu lintas dan mengalihkannya ke Envoy. Kirim curl ke VIP yang terkait dengan peta aturan perutean Anda. Envoy memeriksa permintaan curl, menentukan layanan mana yang harus diselesaikan, dan mengirimkan ke backend yang terkait dengan layanan tersebut.

Konsol

  1. Di Konsol Google Cloud, buka halaman Instance groups.

    Buka Instance groups

  2. Pilih grup instance td-vm-mig-us-central1.
  3. Di bagian Connect, klik SSH.
  4. Setelah login ke VM klien, gunakan alat curl untuk mengirim permintaan ke layanan Hello World melalui Envoy:

    curl -H "Host: hello-world" http://10.0.0.1/
    

Jika Anda melakukan perintah ini berulang kali, Anda akan melihat respons HTML yang berbeda yang berisi nama host backend di grup instance terkelola Hello World. Hal ini karena Envoy menggunakan load balancing {i>round robin<i}, yang merupakan beban default algoritma balancing, saat mengirim traffic ke backend layanan Hello World.

Setelah konfigurasi selesai, setiap VM Compute Engine yang memiliki proxy file bantuan dapat mengakses layanan yang dikonfigurasi di Cloud Service Mesh menggunakan dan berperforma tinggi karena merupakan protokol biner.

Jika Anda mengikuti contoh spesifik dalam panduan ini dengan menggunakan Template VM Compute Engine dengan server HTTP demonstrasi dan nama host layanan service-test, gunakan langkah-langkah ini untuk memverifikasi konfigurasi:

  1. Login ke salah satu host VM yang telah menginstal proxy file bantuan.
  2. Jalankan perintah curl -H 'Host: service-test' 10.0.0.1. Permintaan ini menampilkan nama host backend grup instance terkelola yang menjalankan permintaan.

Pada langkah 2, perhatikan bahwa Anda dapat menggunakan alamat IP apa pun. Misalnya, perintah curl -I -H 'Host: service-test' 1.2.3.4 akan berfungsi di Langkah 2.

Hal ini karena aturan penerusan memiliki parameter alamat yang ditetapkan ke 0.0.0.0, yang menginstruksikan Cloud Service Mesh agar sesuai berdasarkan host yang ditentukan di peta URL. Dalam contoh konfigurasi, nama host adalah service-test.

Langkah selanjutnya