VMs mit manueller Envoy-Bereitstellung einrichten
Dieses Dokument richtet sich an Netzwerkadministratoren, die Cloud Service Mesh manuell einrichten möchten. Der manuelle Prozess ist ein veralteter Mechanismus, Nur für fortgeschrittene Nutzer, die Cloud Service Mesh mit der Last einrichten APIs auszugleichen.
Wir empfehlen Ihnen dringend, Cloud Service Mesh mit den Dienst-Routing-APIs anstelle der älteren Load Balancing APIs einzurichten. Wenn Sie die Load Balancing APIs verwenden müssen, empfehlen wir die automatisierte Envoy-Bereitstellung und nicht den manuellen Prozess, der auf dieser Seite beschrieben wird.
Bevor Sie der Anleitung in diesem Leitfaden folgen, müssen Sie die Voraussetzungen erfüllen, die in der Tabelle Einrichtung von Dienst-Routing-APIs mit Envoy und proxylosen Arbeitslasten vorbereiten
In diesem Leitfaden erfahren Sie, wie Sie eine aus Envoy-Sidecar-Proxys mit Compute Engine-VMs bestehende Datenebene manuell bereitstellen, diese mit Cloud Service Mesh konfigurieren und die Einrichtung prüfen, damit sie ordnungsgemäß funktioniert. Dazu sind folgende Schritte erforderlich:
- Testdienst erstellen
- Einfache Datenebene in Compute Engine mit Envoy-Proxys bereitstellen
- Cloud Service Mesh mithilfe von Compute Engine APIs einrichten, die Aktivieren Sie Cloud Service Mesh, um Ihre Envoy-Sidecar-Proxys zu konfigurieren.
- Bei einer VM anmelden, auf der ein Envoy-Proxy ausgeführt wird, und durch einen Envoy-Proxy eine Anfrage an ein Back-End mit Load-Balancing senden
Die Konfigurationsbeispiele in diesem Dokument dienen Demonstrationszwecken. In einer Produktionsumgebung müssen Sie möglicherweise je nach Umgebung und Anforderungen zusätzliche Komponenten bereitstellen.
Übersicht über den Konfigurationsprozess
In diesem Abschnitt wird die manuelle Konfiguration für Dienste beschrieben, die auf Compute Engine-VMs ausgeführt werden. Der Konfigurationsprozess für die Client-VMs besteht aus dem Einrichten eines Sidecar-Proxys und dem Abfangen von Traffic auf einem Compute Engine-VM-Host. Anschließend konfigurieren Sie das Load-Balancing mit Google Cloud Load Balancing APIs.
Dieser Abschnitt enthält Informationen zum Abrufen und Einfügen von Envoy-Proxys von Drittanbieterquellen, die nicht von Google verwaltet werden.
Wenn eine Anwendung Traffic an den Dienst sendet, der in Cloud Service Mesh, wird der Traffic abgefangen und an den xDS-Server weitergeleitet. API-kompatibler Sidecar-Proxy und Load-Balancing für die Back-Ends der Konfiguration in den Load-Balancing-Komponenten von Google Cloud. Weitere Informationen zu Hostnetzwerken und zum Abfangen von Traffic finden Sie unter Sidecar-Proxy-Traffic in Cloud Service Mesh abfangen.
Für jeden VM-Host, der Zugriff auf Cloud Service Mesh-Dienste benötigt, führen Sie die folgenden Schritte aus:
Weisen Sie der VM ein Dienstkonto zu.
Legen Sie den API-Zugriffsbereich der VM fest, um vollständigen Zugriff auf die Google Cloud APIs zu ermöglichen.
- Klicken Sie beim Erstellen der VMs unter Identität und API-Zugriff auf Uneingeschränkten Zugriff auf alle Cloud APIs zulassen.
Geben Sie mit der gcloud CLI Folgendes an:
--scopes=https://www.googleapis.com/auth/cloud-platform
.
Lassen Sie ausgehende Verbindungen zu
trafficdirector.googleapis.com
(TCP, Port 443) über die VM zu, damit der Sidecar-Proxy über gRPC eine Verbindung zur Cloud Service Mesh-Steuerungsebene herstellen kann. Ausgehende Verbindungen zu Port 443 sind standardmäßig aktiviert.Stellen Sie einen mit xDS APIs kompatiblen Sidecar-Proxy (z. B. Envoy) mit einer Bootstrap-Konfiguration bereit, die auf
trafficdirector.googleapis.com:443
als xDS-Server verweist. Wenn Sie eine Beispieldatei für die Bootstrap-Konfiguration benötigen, öffnen Sie die komprimierte Datei „traffic-director-xdsv3.tar.gz“ und ändern Sie die Dateibootstrap_template.yaml
entsprechend Ihren Anforderungen.Leiten Sie den IP-Traffic, der für die Dienste bestimmt ist, an den Interception-Listener-Port des Sidecar-Proxys weiter.
- Der Interception-Listener-Port des Sidecar-Proxys ist in der Bootstrap-Metadaten-Konfiguration des Proxys als
TRAFFICDIRECTOR_INTERCEPTION_PORT
definiert und in der Beispiel-Bootstrap-Konfigurationsdatei in dieser komprimierten Datei auf 15001 gesetzt. - Das Istio-
iptables.sh
-Skript in der komprimierten Datei können Sie das Abfangen von Traffic einrichten.
- Der Interception-Listener-Port des Sidecar-Proxys ist in der Bootstrap-Metadaten-Konfiguration des Proxys als
Hello World
-Testdienst erstellen
In diesem Abschnitt erfahren Sie, wie Sie einen einfachen Testdienst erstellen, der den Hostnamen der VM zurückgibt, die die Anfrage vom Client bereitgestellt hat. Der Testdienst ist unkompliziert. Es ist ein Webserver, der über eine von Compute Engine verwaltete Instanzgruppe bereitgestellt wird.
Instanzvorlage erstellen
In der von Ihnen erstellten Instanzvorlage wird ein Beispiel für den apache2-Webserver mit dem Parameter startup-script
konfiguriert.
Console
Rufen Sie in der Google Cloud Console die Seite Instanzvorlagen auf.
- Klicken Sie auf Instanzvorlage erstellen.
- Geben Sie in den Feldern die folgenden Informationen ein:
- Name:
td-demo-hello-world-template
- Bootlaufwerk: Debian GNU/Linux 10 (Buster)
- Dienstkonto: Standarddienstkonto für Compute Engine
- Zugriffsbereiche: Erlauben Sie vollen Zugriff auf alle Cloud APIs
- Name:
- Klicken Sie auf Verwaltung, Sicherheit, Laufwerke, Netzwerke, einzelne Mandanten.
- Fügen Sie auf dem Tab Netzwerk im Feld Netzwerk-Tags das Tag
td-http-server
hinzu. Kopieren Sie auf dem Tab Verwaltung das folgende Skript in das Feld Startskript.
#! /bin/bash sudo apt-get update -y sudo apt-get install apache2 -y sudo service apache2 restart echo '<!doctype html><html><body><h1>'`/bin/hostname`'</h1></body></html>' | sudo tee /var/www/html/index.html
Klicken Sie auf Erstellen.
gcloud
Erstellen Sie die Instanzvorlage:
gcloud compute instance-templates create td-demo-hello-world-template \ --machine-type=n1-standard-1 \ --boot-disk-size=20GB \ --image-family=debian-10 \ --image-project=debian-cloud \ --scopes=https://www.googleapis.com/auth/cloud-platform \ --tags=td-http-server \ --metadata=startup-script="#! /bin/bash sudo apt-get update -y sudo apt-get install apache2 -y sudo service apache2 restart sudo mkdir -p /var/www/html/ echo '<!doctype html><html><body><h1>'`/bin/hostname`'</h1></body></html>' | sudo tee /var/www/html/index.html"
Verwaltete Instanzgruppe erstellen
In diesem Abschnitt geben Sie an, dass die verwaltete Instanzgruppe immer zwei Instanzen des Testdienstes enthält. Dies ist zu Demonstrationszwecken. Cloud Service Mesh unterstützt automatisch skalierte verwaltete Instanzgruppen.
Console
Rufen Sie in der Google Cloud Console die Seite Instanzgruppen auf.
- Klicken Sie auf Instanzgruppe erstellen.
- Wählen Sie Neue verwaltete Instanzgruppe (zustandslos) aus. Weitere Informationen finden Sie unter Zustandslose oder zustandsorientierte MIGs.
- Geben Sie
td-demo-hello-world-mig
als Name für die verwaltete Instanzgruppe ein und wählen Sie die Zoneus-central1-a
aus. - Wählen Sie unter Instanzvorlage die Option
td-demo-hello-world-template
aus. Dies ist die von Ihnen erstellte Instanzvorlage. - Wählen Sie unter Autoscaling-Modus die Option Kein Autoscaling aus.
- Geben Sie unter Anzahl der Instanzen mindestens 2 als Anzahl der Instanzen an, die Sie in der Gruppe erstellen möchten.
- Klicken Sie auf Erstellen.
gcloud
Verwenden Sie die gcloud CLI, um eine verwaltete Instanzgruppe mit der zuvor erstellten Instanzvorlage zu erstellen.
gcloud compute instance-groups managed create td-demo-hello-world-mig \ --zone us-central1-a \ --size=2 \ --template=td-demo-hello-world-template
Instanzvorlage und verwaltete Instanzgruppe erstellen, in der Envoy bereitgestellt wird
Folgen Sie der Anleitung in diesem Abschnitt, um eine Instanzvorlage manuell zu erstellen. und eine verwaltete Instanzgruppe für Cloud Service Mesh. Verwaltete Instanzgruppen erstellen neue Back-End-VMs mithilfe von Autoscaling.
In diesem Beispiel wird Folgendes gezeigt:
- Erstellen Sie eine VM-Vorlage mit einer vollständigen Envoy-Konfiguration und einem Beispieldienst, der den Hostnamen über das HTTP-Protokoll bereitstellt.
- Verwaltete Instanzgruppe mithilfe dieser Vorlage konfigurieren.
Instanzvorlage erstellen
Erstellen Sie zuerst die Compute Engine-VM-Instanzvorlage. Diese Vorlage konfiguriert den Envoy-Sidecar-Proxy und den Beispiel-Apache2-Webdienst automatisch über den Parameter startup-script
.
Console
Rufen Sie in der Google Cloud Console die Seite Instanzvorlagen auf.
- Klicken Sie auf Instanzvorlage erstellen.
Füllen Sie die Felder so aus:
- Name: td-vm-template
- Bootlaufwerk: Debian GNU/Linux 10 (Buster)
- Standarddienstkonto: Standarddienstkonto für Compute Engine
- Zugriffsbereiche: Erlauben Sie vollen Zugriff auf alle Cloud APIs
Aktivieren Sie unter Firewall die Kästchen neben HTTP-Traffic zulassen und HTTPS-Traffic zulassen.
Klicken Sie auf Verwaltung, Sicherheit, Laufwerke, Netzwerke, einzelne Mandanten.
Kopieren Sie auf dem Tab Verwaltung das folgende Skript in den Startskript an.
#! /usr/bin/env bash # Set variables export ENVOY_USER="envoy" export ENVOY_USER_UID="1337" export ENVOY_USER_GID="1337" export ENVOY_USER_HOME="/opt/envoy" export ENVOY_CONFIG="${ENVOY_USER_HOME}/config.yaml" export ENVOY_PORT="15001" export ENVOY_ADMIN_PORT="15000" export ENVOY_TRACING_ENABLED="false" export ENVOY_XDS_SERVER_CERT="/etc/ssl/certs/ca-certificates.crt" export ENVOY_ACCESS_LOG="/dev/stdout" export ENVOY_NODE_ID="$(cat /proc/sys/kernel/random/uuid)~$(hostname -i)" export BOOTSTRAP_TEMPLATE="${ENVOY_USER_HOME}/bootstrap_template.yaml" export GCE_METADATA_SERVER="169.254.169.254/32" export INTERCEPTED_CIDRS="*" export GCP_PROJECT_NUMBER=PROJECT_NUMBER export VPC_NETWORK_NAME=NETWORK_NAME export GCE_ZONE=$(curl -sS -H "Metadata-Flavor: Google" http://metadata.google.internal/computeMetadata/v1/instance/zone | cut -d"/" -f4) # Create system user account for Envoy binary sudo groupadd ${ENVOY_USER} \ --gid=${ENVOY_USER_GID} \ --system sudo adduser ${ENVOY_USER} \ --uid=${ENVOY_USER_UID} \ --gid=${ENVOY_USER_GID} \ --home=${ENVOY_USER_HOME} \ --disabled-login \ --system # Download and extract the Cloud Service Mesh tar.gz file cd ${ENVOY_USER_HOME} sudo curl -sL https://storage.googleapis.com/traffic-director/traffic-director-xdsv3.tar.gz -o traffic-director-xdsv3.tar.gz sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/bootstrap_template.yaml \ -C bootstrap_template.yaml \ --strip-components 1 sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/iptables.sh \ -C iptables.sh \ --strip-components 1 sudo rm traffic-director-xdsv3.tar.gz # Generate Envoy bootstrap configuration cat "${BOOTSTRAP_TEMPLATE}" \ | sed -e "s|ENVOY_NODE_ID|${ENVOY_NODE_ID}|g" \ | sed -e "s|ENVOY_ZONE|${GCE_ZONE}|g" \ | sed -e "s|VPC_NETWORK_NAME|${VPC_NETWORK_NAME}|g" \ | sed -e "s|CONFIG_PROJECT_NUMBER|${GCP_PROJECT_NUMBER}|g" \ | sed -e "s|ENVOY_PORT|${ENVOY_PORT}|g" \ | sed -e "s|ENVOY_ADMIN_PORT|${ENVOY_ADMIN_PORT}|g" \ | sed -e "s|XDS_SERVER_CERT|${ENVOY_XDS_SERVER_CERT}|g" \ | sed -e "s|TRACING_ENABLED|${ENVOY_TRACING_ENABLED}|g" \ | sed -e "s|ACCESSLOG_PATH|${ENVOY_ACCESS_LOG}|g" \ | sed -e "s|BACKEND_INBOUND_PORTS|${BACKEND_INBOUND_PORTS}|g" \ | sudo tee "${ENVOY_CONFIG}" # Install Envoy binary curl -sL "https://deb.dl.getenvoy.io/public/gpg.8115BA8E629CC074.key" | sudo gpg --dearmor -o /usr/share/keyrings/getenvoy-keyring.gpg echo a077cb587a1b622e03aa4bf2f3689de14658a9497a9af2c427bba5f4cc3c4723 /usr/share/keyrings/getenvoy-keyring.gpg | sha256sum --check echo "deb [arch=amd64 signed-by=/usr/share/keyrings/getenvoy-keyring.gpg] https://deb.dl.getenvoy.io/public/deb/debian $(lsb_release -cs) main" | sudo tee /etc/apt/sources.list.d/getenvoy.list sudo apt update sudo apt -y install getenvoy-envoy # Run Envoy as systemd service sudo systemd-run --uid=${ENVOY_USER_UID} --gid=${ENVOY_USER_GID} \ --working-directory=${ENVOY_USER_HOME} --unit=envoy.service \ bash -c "/usr/bin/envoy --config-path ${ENVOY_CONFIG} | tee" # Configure iptables for traffic interception and redirection sudo ${ENVOY_USER_HOME}/iptables.sh \ -p "${ENVOY_PORT}" \ -u "${ENVOY_USER_UID}" \ -g "${ENVOY_USER_GID}" \ -m "REDIRECT" \ -i "${INTERCEPTED_CIDRS}" \ -x "${GCE_METADATA_SERVER}"
Klicken Sie auf Erstellen, um die Vorlage anzulegen.
gcloud
Erstellen Sie die Instanzvorlage.
gcloud compute instance-templates create td-vm-template \ --scopes=https://www.googleapis.com/auth/cloud-platform \ --tags=http-td-tag,http-server,https-server \ --image-family=debian-10 \ --image-project=debian-cloud \ --metadata=startup-script='#! /usr/bin/env bash # Set variables export ENVOY_USER="envoy" export ENVOY_USER_UID="1337" export ENVOY_USER_GID="1337" export ENVOY_USER_HOME="/opt/envoy" export ENVOY_CONFIG="${ENVOY_USER_HOME}/config.yaml" export ENVOY_PORT="15001" export ENVOY_ADMIN_PORT="15000" export ENVOY_TRACING_ENABLED="false" export ENVOY_XDS_SERVER_CERT="/etc/ssl/certs/ca-certificates.crt" export ENVOY_ACCESS_LOG="/dev/stdout" export ENVOY_NODE_ID="$(cat /proc/sys/kernel/random/uuid)~$(hostname -i)" export BOOTSTRAP_TEMPLATE="${ENVOY_USER_HOME}/bootstrap_template.yaml" export GCE_METADATA_SERVER="169.254.169.254/32" export INTERCEPTED_CIDRS="*" export GCP_PROJECT_NUMBER=PROJECT_NUMBER export VPC_NETWORK_NAME=NETWORK_NAME export GCE_ZONE=$(curl -sS -H "Metadata-Flavor: Google" http://metadata.google.internal/computeMetadata/v1/instance/zone | cut -d"/" -f4) # Create system user account for Envoy binary sudo groupadd ${ENVOY_USER} \ --gid=${ENVOY_USER_GID} \ --system sudo adduser ${ENVOY_USER} \ --uid=${ENVOY_USER_UID} \ --gid=${ENVOY_USER_GID} \ --home=${ENVOY_USER_HOME} \ --disabled-login \ --system # Download and extract the Cloud Service Mesh tar.gz file cd ${ENVOY_USER_HOME} sudo curl -sL https://storage.googleapis.com/traffic-director/traffic-director-xdsv3.tar.gz -o traffic-director-xdsv3.tar.gz sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/bootstrap_template.yaml \ -C bootstrap_template.yaml \ --strip-components 1 sudo tar -xvzf traffic-director-xdsv3.tar.gz traffic-director-xdsv3/iptables.sh \ -C iptables.sh \ --strip-components 1 sudo rm traffic-director-xdsv3.tar.gz # Generate Envoy bootstrap configuration cat "${BOOTSTRAP_TEMPLATE}" \ | sed -e "s|ENVOY_NODE_ID|${ENVOY_NODE_ID}|g" \ | sed -e "s|ENVOY_ZONE|${GCE_ZONE}|g" \ | sed -e "s|VPC_NETWORK_NAME|${VPC_NETWORK_NAME}|g" \ | sed -e "s|CONFIG_PROJECT_NUMBER|${GCP_PROJECT_NUMBER}|g" \ | sed -e "s|ENVOY_PORT|${ENVOY_PORT}|g" \ | sed -e "s|ENVOY_ADMIN_PORT|${ENVOY_ADMIN_PORT}|g" \ | sed -e "s|XDS_SERVER_CERT|${ENVOY_XDS_SERVER_CERT}|g" \ | sed -e "s|TRACING_ENABLED|${ENVOY_TRACING_ENABLED}|g" \ | sed -e "s|ACCESSLOG_PATH|${ENVOY_ACCESS_LOG}|g" \ | sed -e "s|BACKEND_INBOUND_PORTS|${BACKEND_INBOUND_PORTS}|g" \ | sudo tee "${ENVOY_CONFIG}" # Install Envoy binary curl -sL "https://deb.dl.getenvoy.io/public/gpg.8115BA8E629CC074.key" | sudo gpg --dearmor -o /usr/share/keyrings/getenvoy-keyring.gpg echo a077cb587a1b622e03aa4bf2f3689de14658a9497a9af2c427bba5f4cc3c4723 /usr/share/keyrings/getenvoy-keyring.gpg | sha256sum --check echo "deb [arch=amd64 signed-by=/usr/share/keyrings/getenvoy-keyring.gpg] https://deb.dl.getenvoy.io/public/deb/debian $(lsb_release -cs) main" | sudo tee /etc/apt/sources.list.d/getenvoy.list sudo apt update sudo apt -y install getenvoy-envoy # Run Envoy as systemd service sudo systemd-run --uid=${ENVOY_USER_UID} --gid=${ENVOY_USER_GID} \ --working-directory=${ENVOY_USER_HOME} --unit=envoy.service \ bash -c "/usr/bin/envoy --config-path ${ENVOY_CONFIG} | tee" # Configure iptables for traffic interception and redirection sudo ${ENVOY_USER_HOME}/iptables.sh \ -p "${ENVOY_PORT}" \ -u "${ENVOY_USER_UID}" \ -g "${ENVOY_USER_GID}" \ -m "REDIRECT" \ -i "${INTERCEPTED_CIDRS}" \ -x "${GCE_METADATA_SERVER}" '
Verwaltete Instanzgruppe erstellen
Wenn Sie keine verwaltete Instanzgruppe mit aktiven Diensten haben, erstellen Sie eine verwaltete Instanzgruppe mithilfe einer VM-Vorlage wie der im vorherigen Abschnitt gezeigten. In diesem Beispiel wird die im vorherigen Abschnitt erstellte Instanzvorlage zur Demonstration der Funktionalität verwendet. Sie müssen die Instanzvorlage nicht verwenden.
Console
Rufen Sie in der Google Cloud Console die Seite Instanzgruppen auf.
- Klicken Sie auf Instanzgruppe erstellen. Standardmäßig wird die Seite zum Erstellen einer verwalteten Instanzgruppe angezeigt.
- Wählen Sie Neue verwaltete Instanzgruppe (zustandslos) aus. Weitere Informationen finden Sie unter Zustandslose oder zustandsorientierte MIGs.
- Geben Sie
td-vm-mig-us-central1
als Name für die verwaltete Instanzgruppe ein und wählen Sie die Zoneus-central1-a
aus. - Wählen Sie unter Instanzvorlage die erstellte Vorlage aus.
- Geben Sie 2 als Anzahl der Instanzen an, die Sie in der Gruppe erstellen möchten.
- Klicken Sie auf Erstellen.
gcloud
Verwenden Sie die gcloud CLI, um eine verwaltete Instanzgruppe mit der zuvor erstellten Instanzvorlage zu erstellen.
gcloud compute instance-groups managed create td-vm-mig-us-central1 \ --zone us-central1-a --size=2 --template=td-vm-template
Cloud Service Mesh mit Google Cloud-Load-Balancing-Komponenten konfigurieren
In diesem Abschnitt erfahren Sie, wie Sie Cloud Service Mesh so konfigurieren, dass Ihre Envoy-Proxys das Load Balancing für ausgehenden Traffic zwischen zwei Back-End-Instanzen ausführen. Sie konfigurieren die folgenden Komponenten:
- Systemdiagnose Weitere Informationen zu Systemdiagnosen finden Sie unter Übersicht über Systemdiagnosen und Systemdiagnosen erstellen.
- Eine Firewallregel, mit der die Systemdiagnosetests die Back-Ends erreichen können. Weitere Informationen finden Sie unter Systemdiagnosen – Übersicht.
- Backend-Dienst Weitere Informationen zu Backend-Diensten finden Sie unter Backend-Dienste – Übersicht.
- Eine Routingregelzuordnung: Dies umfasst das Erstellen einer Weiterleitungsregel und einer URL-Zuordnung. Weitere Informationen finden Sie unter Weiterleitungsregeln und URL-Zuordnungen verwenden.
Systemdiagnose erstellen
Führen Sie zum Erstellen einer Systemdiagnose die folgenden Schritte aus. Weitere Informationen finden Sie unter Systemdiagnosen erstellen.
Console
Rufen Sie in der Google Cloud Console die Seite Systemdiagnosen auf.
- Klicken Sie auf Systemdiagnose erstellen.
- Geben Sie als Name
td-vm-health-check
ein. - Wählen Sie als Protokoll HTTP aus.
- Klicken Sie auf Erstellen.
gcloud
Erstellen Sie die Systemdiagnose:
gcloud compute health-checks create http td-vm-health-check
Erstellen Sie eine Firewallregel:
gcloud compute firewall-rules create fw-allow-health-checks \ --action ALLOW \ --direction INGRESS \ --source-ranges 35.191.0.0/16,130.211.0.0/22 \ --target-tags http-td-tag,http-server,https-server \ --rules tcp
Backend-Dienst erstellen
Wenn Sie Google Cloud CLI verwenden, müssen Sie den Backend-Dienst als globalen Backend-Dienst mit einem Load-Balancing-Schema des Typs INTERNAL_SELF_MANAGED
festlegen. Fügen Sie dem Backend-Dienst die Systemdiagnose und eine verwaltete oder nicht verwaltete Instanzgruppe hinzu. In diesem Beispiel wird die verwaltete Instanzgruppe mit Compute Engine-VM-Vorlage verwendet, die den Beispiel-HTTP-Dienst ausführt, der unter Verwaltete Instanzgruppe erstellen erstellt wurde.
Console
Rufen Sie in der Google Cloud Console die Seite Cloud Service Mesh auf.
- Klicken Sie auf dem Tab Dienste auf Dienst erstellen.
- Klicken Sie auf Weiter.
- Geben Sie als Dienstname
td-vm-service
ein. - Wählen Sie das richtige VPC-Netzwerk aus.
- Achten Sie darauf, dass der Back-End-Typ Instanzgruppen ist.
- Wählen Sie die von Ihnen erstellte verwaltete Instanzgruppe aus.
- Geben Sie die richtigen Portnummern ein.
- Wählen Sie Auslastung oder Rate als Balancing-Modus aus. Der Standardwert ist Rate.
- Klicken Sie auf Fertig.
- Wählen Sie die erstellte Systemdiagnose aus.
- Klicken Sie auf Speichern und fortfahren.
- Klicken Sie auf Erstellen.
gcloud
Erstellen Sie den Backend-Dienst:
gcloud compute backend-services create td-vm-service \ --global \ --load-balancing-scheme=INTERNAL_SELF_MANAGED \ --health-checks td-vm-health-check
Fügen Sie dem Backend-Dienst die Backends hinzu:
gcloud compute backend-services add-backend td-vm-service \ --instance-group td-demo-hello-world-mig \ --instance-group-zone us-central1-a \ --global
Routingregelzuordnung erstellen
Die Routingregelzuordnung definiert, wie Cloud Service Mesh den Traffic in Ihrem Mesh-Netzwerk weiterleitet.
Folgen Sie dieser Anleitung, um die Routingregel, die Weiterleitungsregel, den Zielproxy, und die interne IP-Adresse für die Cloud Service Mesh-Konfiguration.
Der an die interne IP-Adresse gesendete Traffic wird vom Envoy-Proxy abgefangen und gemäß den Host- und Pfadregeln an den entsprechenden Dienst gesendet.
Die Weiterleitungsregel wird als globale Weiterleitungsregel erstellt, wobei load-balancing-scheme
auf INTERNAL_SELF_MANAGED
gesetzt ist.
Sie können die Adresse Ihrer Weiterleitungsregel auf 0.0.0.0
festlegen. Andernfalls wird der Traffic unabhängig von der tatsächlichen Ziel-IP-Adresse der Anfrage basierend auf dem HTTP-Hostnamen und den Pfadinformationen weitergeleitet, die in der URL-Zuordnung konfiguriert sind. In diesem Fall dürfen die Hostnamen Ihrer Dienste gemäß den Hostregeln in der Service Mesh-Konfiguration nur einmal vorkommen. Das heißt, Sie können nicht zwei verschiedene Dienste mit unterschiedlichen Back-End-Gruppen nutzen, die denselben Hostnamen verwenden.
Alternativ können Sie das Routing basierend auf der tatsächlichen Ziel-VIP des Dienstes aktivieren. Wenn Sie die VIP Ihres Dienstes als address
-Parameter der Weiterleitungsregel konfigurieren, werden nur Anfragen an diese IP-Adresse weitergeleitet, die auf den in der URL-Zuordnung angegebenen HTTP-Parametern basieren.
In diesem Beispiel wird 10.0.0.1
als Adressparameter verwendet. Dies bedeutet, dass das Routing für Ihren Dienst auf Grundlage der tatsächlichen Ziel-VIP des Dienstes durchgeführt wird.
Console
In der Google Cloud Console wird der Zielproxy mit der Weiterleitungsregel kombiniert. Wenn Sie die Weiterleitungsregel erstellen, erstellt Google Cloud automatisch einen Ziel-HTTP-Proxy und verknüpft ihn mit der URL-Zuordnung.
Rufen Sie in der Google Cloud Console die Seite Cloud Service Mesh auf.
- Klicken Sie auf dem Tab Routingregelzuordnungen auf Routingregelzuordnung erstellen.
- Geben Sie einen Namen ein.
- Klicken Sie auf Weiterleitungsregel hinzufügen.
- Geben Sie als Name für die Weiterleitungsregel
td-vm-forwarding-rule
ein. - Wählen Sie das Netzwerk aus.
Wählen Sie Ihre Interne IP-Adresse aus. Der an diese IP-Adresse gesendete Traffic wird vom Envoy-Proxy abgefangen und gemäß den Host- und Pfadregeln an den entsprechenden Dienst gesendet.
Die Weiterleitungsregel wird als globale Weiterleitungsregel erstellt, wobei
load-balancing-scheme
aufINTERNAL_SELF_MANAGED
gesetzt ist.Geben Sie im Feld Benutzerdefinierte IP den Wert
10.0.0.1
ein. Wenn Ihre VM Traffic an diese IP-Adresse sendet, wird er vom Envoy-Proxy abgefangen und an den Endpunkt des entsprechenden Back-End-Dienstes gesendet, der in den Trafficverwaltungsregeln der URL-Zuordnung definiert ist.Jede Weiterleitungsregel in einem VPC-Netzwerk muss eine eindeutige IP-Adresse und einen eindeutigen Port pro VPC-Netzwerk haben. Wenn Sie mehrere Weiterleitungsregeln mit derselben IP-Adresse und demselben Port in einem bestimmten VPC-Netzwerk erstellen, ist nur die erste Weiterleitungsregel gültig. Andere werden ignoriert. Wenn
10.0.0.1
in Ihrem Netzwerk nicht verfügbar ist, wählen Sie eine andere IP-Adresse aus.Achten Sie darauf, dass der Port auf
80
festgelegt ist.Klicken Sie auf Speichern.
Wählen Sie im Abschnitt Routingregeln die Option Einfache Host- und Pfadregel aus.
Wählen Sie im Abschnitt Host- und Pfadregeln
td-vm-service
als Dienst aus.Klicken Sie auf Host- und Pfadregel hinzufügen.
Geben Sie im Feld Hosts den Wert
hello-world
ein.Wählen Sie unter Dienst die Option
td-vm-service
aus.Klicken Sie auf Speichern.
gcloud
Erstellen Sie eine URL-Zuordnung, die den Backend-Dienst verwendet:
gcloud compute url-maps create td-vm-url-map \ --default-service td-vm-service
Erstellen Sie ein Tool zum Abgleich von Pfaden für URL-Zuordnungen und eine Hostregel, um den Traffic für Ihren Dienst auf Grundlage des Hostnamens und Pfads weiterzuleiten. In diesem Beispiel werden
service-test
als Dienstname und ein Standardtool zum Abgleich von Pfaden verwendet, das mit allen Pfadanfragen für diesen Host (/*
) übereinstimmt.gcloud compute url-maps add-path-matcher td-vm-url-map \ --default-service td-vm-service --path-matcher-name td-vm-path-matcher
gcloud compute url-maps add-host-rule td-vm-url-map --hosts service-test \ --path-matcher-name td-vm-path-matcher \ --hosts hello-world
Erstellen Sie den Ziel-HTTP-Proxy.
gcloud compute target-http-proxies create td-vm-proxy \ --url-map td-vm-url-map
Erstellen Sie die Weiterleitungsregel. Die Weiterleitungsregel muss global sein und mit dem Wert
load-balancing-scheme
aufINTERNAL_SELF_MANAGED
erstellt werden.gcloud compute forwarding-rules create td-vm-forwarding-rule \ --global \ --load-balancing-scheme=INTERNAL_SELF_MANAGED \ --address=10.0.0.1 \ --target-http-proxy=td-vm-proxy \ --ports 80 \ --network default
Zu diesem Zeitpunkt ist Cloud Service Mesh so konfiguriert, dass das Load Balancing des Traffics für die in der URL-Zuordnung angegebenen Dienste über Back-Ends in der verwalteten Instanzgruppe erfolgt.
Konfiguration prüfen
Im letzten Teil des Leitfadens zur
Einrichtung von Cloud Service Mesh
Compute Engine-VMs testen Sie, ob der von der Client-VM gesendete Traffic
an die Weiterleitungsregel-VIP abgefangen und
an den Envoy-Proxy weitergeleitet wird.
das Ihre Anfrage dann an die VMs weiterleitet, die den Hello World
-Dienst hosten.
Prüfen Sie zuerst anhand der folgenden Schritte, ob die Back-Ends fehlerfrei sind:
Console
Rufen Sie in der Google Cloud Console die Seite Cloud Service Mesh auf.
In der Zusammenfassung wird angezeigt, ob die Dienste fehlerfrei sind.
- Klicken Sie auf den Namen eines Dienstes. Auf der Seite Dienstdetails finden Sie Informationen zum Zustand der Back-Ends.
- Wenn die Back-Ends fehlerhaft sind, können Sie sie zurücksetzen. Dazu klicken Sie auf den Namen der Back-Ends und dann auf der Seite VM-Instanzdetails auf Zurücksetzen.
gcloud
Verwenden Sie den compute backend-services
get-health
.
um zu prüfen, ob die Back-Ends fehlerfrei sind:
gcloud compute backend-services get-health td-vm-service \ --global \ --format=get(name, healthStatus)
Melden Sie sich nach der Prüfung des Systemstatus der Back-Ends bei der Client-VM an, die so konfiguriert ist, dass sie den Traffic abfängt und an Envoy weiterleitet. Sie senden eine curl
-Anfrage an die VIP, die mit Ihrer Routingregelzuordnung verknüpft ist. Envoy prüft die curl
-Anfrage, bestimmt, zu welchem Dienst sie aufgelöst werden soll, und sendet die Anfrage an ein Backend, das mit diesem Dienst verknüpft ist.
Console
Rufen Sie in der Google Cloud Console die Seite Instanzgruppen auf.
- Wählen Sie die Instanzgruppe
td-vm-mig-us-central1
aus. - Klicken Sie unter Verbinden auf SSH.
Nachdem Sie sich bei der Client-VM angemeldet haben, senden Sie mit dem
curl
-Tool eine Anfrage an den DienstHello World
über Envoy:curl -H "Host: hello-world" http://10.0.0.1/
Wenn Sie diesen Befehl wiederholt ausführen, werden in der verwalteten Instanzgruppe Hello World
unterschiedliche HTML-Antworten mit den Hostnamen der Back-Ends angezeigt.
Dies liegt daran, dass Envoy beim Senden von Traffic an die Back-Ends des Dienstes Hello World
den Standard-Load-Balancing-Algorithmus "Round Robin" verwendet.
Wenn die Konfiguration abgeschlossen ist, kann jede Compute Engine-VM mit einem Sidecar-Proxy auf Dienste zugreifen, die in Cloud Service Mesh über das HTTP-Protokoll konfiguriert sind.
Wenn Sie die spezifischen Beispiele in dieser Anleitung befolgt und die Compute Engine-VM-Vorlage mit dem HTTP-Server- und Diensthostnamen service-test
verwendet haben, prüfen Sie die Konfiguration anhand dieser Schritte:
- Melden Sie sich bei einem der VM-Hosts an, auf dem ein Sidecar-Proxy installiert ist.
- Führen Sie den Befehl
curl -H 'Host: service-test' 10.0.0.1
aus. Diese Anfrage gibt den Hostnamen des Back-Ends der verwalteten Instanzgruppe zurück, das die Anfrage verarbeitet hat.
In Schritt 2 können Sie eine beliebige IP-Adresse verwenden. Der Befehl curl -I -H 'Host: service-test' 1.2.3.4
funktioniert beispielsweise in Schritt 2.
Dies liegt daran, dass der Adressparameter der Weiterleitungsregel auf 0.0.0.0
festgelegt ist. Dadurch wird Cloud Service Mesh angewiesen, den Abgleich basierend auf dem in der URL-Zuordnung definierten Host vorzunehmen. In der Beispielkonfiguration lautet der Hostname service-test
.
Nächste Schritte
- Erweiterte Traffic-Verwaltung
- Informationen zur Fehlerbehebung bei Cloud Service Mesh-Bereitstellungen
- Beobachtbarkeit mit Envoy einrichten.